JP2017538218A - 注視対象アプリケーションランチャー - Google Patents
注視対象アプリケーションランチャー Download PDFInfo
- Publication number
- JP2017538218A JP2017538218A JP2017528540A JP2017528540A JP2017538218A JP 2017538218 A JP2017538218 A JP 2017538218A JP 2017528540 A JP2017528540 A JP 2017528540A JP 2017528540 A JP2017528540 A JP 2017528540A JP 2017538218 A JP2017538218 A JP 2017538218A
- Authority
- JP
- Japan
- Prior art keywords
- application launcher
- gaze
- display
- user
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Abstract
アプリケーションランチャーの表示位置を制御する方法のための実施形態が開示される。例示的な方法は、視線追跡カメラを介して注視対象を認識することと、ユーザートリガーに応答して、ディスプレイを介して注視対象においてアプリケーションランチャーを表示することとを含み、アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する。例示的な方法は、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、注視対象においてアプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることを更に含む。
Description
[0001] コンピューティングデバイスは、動作を行うためのアプリケーションを実行することができる。コンピューティングデバイスのアプリケーションにアクセスするために、利用可能なアプリケーションのインジケーションを有するユーザーインターフェース要素を選択用に提示することができる。
[0002] コンピューティングデバイス用のアプリケーションランチャーのロケーションを制御する方法のための実施形態が開示される。例示的な方法は、注視対象を認識することと、ユーザートリガーに応答して注視対象においてアプリケーションランチャーを表示することとを含む。本方法は、複数のアプリケーションのうちの1つのユーザー選択を認識することと、注視対象においてアプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることを更に含む。
[0003] この発明の概要は、詳細な説明において以下で更に説明される概念の抜粋を単純化された形態で紹介するように提供される。この発明の概要は、特許請求される主題の主要な特徴または重要な特徴を特定するように意図されたものでもなければ、特許請求される主題の範囲を限定するように用いられることを意図されたものでもない。更に、特許請求される主題は、本開示の任意の部分におけるありとあらゆる不利な点を解決する実施態様に限定されない。
[0011] 本開示のコンピューティングデバイスは、アプリケーション起動を容易にするように構成される。1つの例において、拡張現実コンピューティングデバイスは、ユーザーが見ている注視対象を認識することができる。ユーザートリガーに応答して、拡張現実コンピューティングデバイスは、アプリケーションランチャー(またはアプリケーションランチャーのアフォーダンスまたはプレビュー)の拡張現実画像を、アプリケーションランチャーが注視対象に位置しているように見えるように表示するように構成される。その後、アプリケーションランチャーから起動されたアプリケーションは、アプリケーションランチャーと置き換わることができる。したがって、アプリケーションランチャーのためのロケーションを選択することによって、ユーザーは、その後起動されるアプリケーションのためのロケーションを効率的に選択している。双方の選択は、ユーザーの注視に基づく。別の例では、従来のディスプレイ上へのユーザーの注視が評価され、注視の表示ロケーションにアプリケーションランチャーまたはプレビューが表示され、ユーザー選択に応答して、起動されたアプリケーションがアプリケーションランチャーに置き換わる。
[0012] 拡張現実環境において、アプリケーションランチャーは、ユーザーが、拡張現実体験を抜け出すことなく、「どこからともなく(out of thin air)」または現実世界環境における任意の適切な表面上のオーバーレイとしてアプリケーションを起動することを可能にする。そのような環境において、アプリケーションランチャーは、ランチャーが、ヘッドマウントディスプレイデバイスの動きにかかわらず、現実世界のオブジェクトに対し同じ位置に留まっているように見えるようにワールドロックする(world-lock)ことができる。他の実施態様では、アプリケーションランチャーは、ユーザーと共に動くように見えるようにボディロックする(body-lock)ことができる。いくつかの実施態様では、アプリケーションランチャーは、ワールドロックモードとボディロックモードとの間で切り替えることができる。
[0013] 図1は、ユーザー102がコンピューティングデバイス104およびヘッドマウントディスプレイデバイス106のうちの1つまたは複数とインタラクトしてアプリケーションを起動することができる例示的な環境100を示す。例えば、アプリケーションは、ヘッドマウントディスプレイデバイス106を用いて起動することができる。コンピューティングデバイス104は、限定ではないが、ビデオゲームコンソール、ホームエンタテイメントデバイス(例えば、オーディオ/ビデオ受信機)、パーソナルコンピューティングデバイス、ラップトップ、スマートフォン、タブレットコンピューティングデバイス、および/または任意の他の適切なコンピューティングシステムを含む任意の適切なコンピューティングデバイスを含むことができる。ヘッドマウントディスプレイデバイス106は、シースルーディスプレイを通じて視認可能な現実世界環境に対する拡張として表示データを提示するためのシースルーディスプレイ等の1つまたは複数の出力デバイスと、オーディオデータを出力するためのスピーカーとを備えることができる。ヘッドマウントディスプレイ(HMD)デバイス106は、HMDデバイスに一体化された、またはHMDデバイスに通信可能に結合された1つまたは複数のセンサーサブシステムを更に含むことができる。例えば、1つまたは複数のセンサーサブシステムは、限定ではないが、視線追跡カメラ(例えば、ヘッドマウントディスプレイデバイスの装着者の眼の画像を捕捉して、装着者の注視対象を特定するように構成された後ろ向きのカメラ)、マイクロフォン、および(例えば、環境の画像を捕捉するための)前向きのカメラを含むことができる。
[0014] コンピューティングデバイス104および/またはヘッドマウントディスプレイデバイス106は、アプリケーションランチャーおよび/または1つもしくは複数の起動されたアプリケーションを提示するために、ヘッドマウントディスプレイデバイス106のディスプレイデバイス108および/またはシースルーディスプレイに通信可能に接続することができる。他の実施態様では、アプリケーション起動機能は、ディスプレイデバイス108および/またはヘッドマウントディスプレイデバイス106の搭載されたコンピューティングシステムによってハンドリングすることができる。また他の実施態様では、アプリケーション起動機能のうちの少なくともいくつかを、リモートコンピューターまたはサービスによってハンドリングすることができる。例示的なアプリケーションランチャー109が、環境の壁面に示され、破線は、アプリケーションランチャーが、ヘッドマウントディスプレイデバイス106を通じて、環境に対する拡張として視認可能であることを示す。アプリケーションランチャー109は、それぞれのユーザーインターフェース要素の選択により起動することができる1つまたは複数のアプリケーションを示す1つまたは複数のアイコンまたは他のユーザーインターフェース要素を含むことができる。
[0015] センサー110は、(例えば、環境100の)RGBイメージデータ/フレームおよび/または深度画像データ/フレームを捕捉するための、可視光カメラ、赤外線カメラおよび/または可視光/赤外光プロジェクターのうちの1つまたは複数を備えることができる。いくつかの例において、センサー110の1つまたは複数のカメラは、ユーザーの注視対象を特定するためにユーザーの眼の画像を捕捉するように構成された視線追跡カメラとすることができる。加えてまたは代替的に、センサー110は、(例えば、環境100から)サウンドを受信するための1つまたは複数の指向性マイクロフォンを備えることができる。
[0016] 図2は、アプリケーションランチャーの位置を制御するための方法200のフローチャートである。方法200は、限定ではないが、コンピューティングデバイス104、ヘッドマウントディスプレイデバイス106、またはリモートコンピューティングデバイスもしくはサービスを含む、任意の適切なコンピューティングデバイスによって実行することができる。202において、方法200は注視対象を認識することを含む。任意の適切な視線追跡技法を実行して注視対象を認識することができる。例えば、視線方向を特定するために、ヘッドマウントディスプレイデバイス106の視線追跡カメラおよび/または図1のセンサー110の視線追跡カメラがユーザーの眼の画像を捕捉することができる。視線方向は、ユーザーの眼からディスプレイまたは表面(例えば、ヘッドマウントディスプレイデバイス106のシースルーディスプレイ、図1のディスプレイデバイス108、および/またはプロジェクターが画像を投影することができる表面)に向かって延びるベクトルを含むことができる。視線方向のベクトルがディスプレイに交差するロケーション(例えば、ピクセル座標)は、注視対象(例えば、視線が向けられたディスプレイ上のロケーション)であると特定することができる。他の例において、注視対象は、頭部の動きを追跡することによって認識することができる。そのような例において、「注視」という用語は、本明細書において用いられるとき、頭部を対象とした(head-targeting)注視を指すことができる。
[0017] 204において、本方法は、アプリケーションランチャーを表示する要求を示すユーザートリガーを認識することを含む。ユーザートリガーは、コンピューティングデバイスおよび/またはヘッドマウントディスプレイデバイスによって認識可能な任意の適切なユーザー入力を含むことができる。例えば、ユーザートリガーは、(例えば、注視対象を認識するために用いられるような)視線追跡カメラおよび別の撮像デバイス(例えば、図1のセンサー110等の、環境を撮像するための可視光カメラ、赤外カメラまたは深度カメラ)のうちの1つまたは複数を介して認識されるジェスチャー(例えば、手、顔および/または身体ジェスチャー)を含むことができる。加えてまたは代替的に、ユーザートリガーは、マイクロフォンおよび1つまたは複数の音声認識モジュール(例えば、コンピューティングデバイスに対しローカルであり、および/またはコンピューティングデバイスに通信可能に接続されたリモートサービス内でローカルである)を介して認識される音声コマンドを含む。更なるまたは代替的な例において、ユーザートリガーは、持続した視線(例えば、トリガー閾値よりも長い持続時間にわたって、ユーザーの注視が注視対象に向けられているおよび/または注視対象が維持されているという認識)を含むことができる。注視対象認識を含むユーザートリガーは、注視がディスプレイ、ユーザーインターフェースおよび/または環境の「空き」領域に向けられていると識別することを含むことができる。例えば、「空き」領域は、ユーザーインターフェース要素を含まない領域、および/または選択可能な現実世界のオブジェクトもしくは表示オブジェクトを含まない領域を含むことができる。
[0018] 加えてまたは代替的に、ユーザートリガーは、ディスプレイデバイス上に表示されるユーザーインターフェース要素に視線が向けられること、制御デバイスまたは他の入力デバイス(例えば、ヘッドマウントディスプレイの外部の制御デバイスおよび/またはアプリケーションを起動するのに用いられるコンピューティングデバイス)上の物理的ボタンの起動、および/または任意の他の適切なユーザー入力を含むことができる。ユーザー入力の任意の組み合わせをユーザートリガーとして認識することができることが理解される。
[0019] 206に示されるように、本方法は、ユーザートリガーに応答して注視対象においてアプリケーションランチャー(例えば、図1のアプリケーションランチャー109)の位置プレビューを表示することを含むことができる。アプリケーションランチャーの位置プレビューを表示することにより、ユーザーがアプリケーションランチャーの配置を精密に調整する機会を与えることができる。位置プレビューは、プレビューによって示されるロケーションにおけるアプリケーションランチャーの配置が注視対象およびユーザートリガーの意図される結果であることをユーザーが確認することを可能にすることもできる。例えば、位置プレビューは、アプリケーションランチャーの輪郭(例えば、アプリケーションランチャーに対応するユーザーインターフェース要素またはアプリケーションウィンドウの外縁の輪郭)とすることができる。更なる例または代替的な例では、位置プレビューは、アプリケーションランチャーが表示されることになる位置、サイズおよび/または形状のインジケーションを与える、アプリケーションランチャーの半透明バージョン、アプリケーションランチャーのアニメーション、および/またはアプリケーションランチャーの他の形で変更されたバージョン(例えば、異なるサイズ、回転、形状および/または他の特徴を有する)とすることができる。いくつかの例では、位置プレビューの中心を、(位置プレビューが受理された後)アプリケーションランチャーと同じ、ディスプレイのピクセル座標とすることができる。このようにして、プレビューは、表示されることになるアプリケーションランチャーおよび/またはアプリケーションの外観、サイズ、位置および/または他の特徴の近似を与える(例えば、これにより、ユーザーが、起動されることになるアプリケーションが専有する空間量を特定することを可能にする)ことができる。
[0020] 208に示すように、方法200は、確認入力またはプレビュー持続時間の満了が認識されたか否かを判定することを含むことができる。確認入力は、限定ではないが、ユーザートリガーに関して上記で説明した例のうちの1つまたは複数を含む任意の適切なユーザー入力を含むことができる。例えば、確認入力は、ヘッドマウントディスプレイ内に一体化されたおよび/またはヘッドマウントディスプレイに対し遠隔にあるカメラによって認識可能なジェスチャーを含むことができる。加えてまたは代替的に、位置プレビューは、所定の(例えば、製造者によって定義されたおよび/またはユーザー制御による設定内の)プレビュー持続時間を有し、この所定のプレビュー持続時間は、プレビューを確認/キャンセル/調整するユーザー入力なしでプレビューを表示する時間量を定義する。
[0021] 208において確認入力が認識されず、プレビュー持続時間が満了していない場合(例えば、208における「いいえ」)、本方法は210に進み、キャンセルまたは調整入力が認識されるか否かを判定する。キャンセル入力は、アプリケーションランチャー(および関連付けられた位置プレビュー)の提示をキャンセルする意図を示す適切なユーザー入力(例えば、上記で説明したユーザー入力の例のうちの1つまたは複数の任意の組み合わせ)を含むことができる。例えば、キャンセル入力により、ユーザーが誤検出のユーザートリガー認識を示すことを可能にすることができる。調整入力は、位置プレビュー(およびその後表示されるアプリケーションランチャー)の位置を調整するユーザーの意図を識別する、キャンセル入力と異なるユーザー入力を含むことができる。調整入力は、位置プレビューを動かす方向、位置プレビューを動かす量、および/または位置プレビューのエッジ、中心および/または他の部分が配置されるディスプレイ上のロケーションを示すユーザー入力を含むことができる。例えば、ユーザーは、調整が行われることを示すジェスチャーを行い、プレビューの中心が配置される新たなロケーションを注視することができる。
[0022] 210においてキャンセルおよび/または調整入力が受信されない場合(例えば、210における「いいえ」)、本方法は212に進んで現在のロケーションにおけるプレビューの表示を継続し、208に戻って確認入力および/またはプレビュー持続時間の満了のチェックを継続することができる。逆に、210においてキャンセルおよび/または調整入力が受信される場合(例えば、210における「はい」)、本方法は、214に進んで現在のロケーションにおけるプレビューの表示を停止することができる。例えば、210においてキャンセル入力が認識される場合、プレビューは、ディスプレイから完全に取り除くことができ、本方法は、終了しおよび/または202に戻って新たな注視対象を認識することができる。210において調整入力が認識される場合、本方法は、216に示されるように、プレビューを新たなロケーションに動かすことを含み、208に戻って、確認入力および/またはプレビュー持続時間の満了に基づいて、新たなロケーションが受容可能であるか否かを判定することができる。
[0023] 208に戻り、確認入力またはプレビュー持続時間の満了が認識される場合(例えば、208における「はい」)、本方法は、218に進み、アプリケーションランチャーを表示する。例えば、220に示すように、位置プレビューをアプリケーションランチャーと置き換え、アプリケーションランチャーの少なくともエッジ、中心または他の部分が、(例えば、206において表示される、および/または216における新たなロケーションでの)位置プレビューのエッジ、中心または他の部分のそれぞれのロケーションに配置されるようにすることができる。プレビューが表示されない(例えば、206〜216が実行されない)例において、アプリケーションランチャーは、204において認識されたユーザートリガーに直接応答して218において表示することができることが理解されよう。例示的なアプリケーションランチャー109が図1に示され、更なる例が図4A、図4Bおよび図5に関して以下で説明される。また、いくつかの例において、プレビュー持続時間は、確認ではなく、表示している位置プレビューおよびアプリケーションランチャーのキャンセルに関連付けられてもよいことを理解されたい。そのような例では、208におけるプレビュー持続時間の満了によって、本方法は218ではなく214に進むことができる。
[0024] 218において表示されるアプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示することができる。例えば、アプリケーションランチャーは、コンピューティングデバイスによって実行可能な全てのアプリケーションおよび/またはコンピューティングによって実行可能なアプリケーションのサブセットを表すことができる。後者の例において、アプリケーションのサブセットは、ユーザープリファレンス、コンピューティングデバイスの現在のコンテキスト(例えば、コンピューティングデバイスの環境、コンピューティングデバイスのステータス、日時等)、コンピューティングデバイスの最近のアクティブティ(例えば、開いている、または最近用いられたアプリケーション)、現在の注視対象、ユーザー命令および/または任意の他の適切なパラメーターに基づいて、提示のために自動的に選択することができる。アプリケーションランチャーは、アプリケーションランチャーの境界内で視認可能であるよりも多くのアプリケーションを含むことができ、スクローリングおよび/またはページめくりを用いて、現在起動のために提示されているアプリケーションを変更することができる。
[0025] 222において、本方法200は、アプリケーションランチャーにおけるアプリケーションのユーザー選択を認識することを含む。アプリケーションのユーザー選択は、任意の適切な方式で行うことができ、上記で説明したユーザー入力メカニズムのうちの任意のものを含むことができる。例えば、ユーザーは、特定のアプリケーションを識別する音声コマンドを提供することによって、および/またはそのアプリケーションを識別するアプリケーションランチャー内に表示されるユーザーインターフェース要素に注視を向けることによって、このアプリケーションを識別することができる。別の例として、ユーザーは、1つまたは複数のカメラによって認識されるポインティングジェスチャーを行うことができる。
[0026] 224に示すように、本方法は、アプリケーションランチャーを選択されたアプリケーションと置き換えることを含む。例えば、アプリケーションランチャーを選択されたアプリケーションと置き換えることは、注視対象におよび/またはアプリケーションランチャーのロケーションに、選択されたアプリケーションのグラフィカルユーザーインターフェース要素および/またはウィンドウを表示することを含むことができる。アプリケーションランチャーをアプリケーションと置き換えることは、アプリケーションの表示可能な部分(例えば、エッジ、中心、境界等)がアプリケーションランチャーのそれぞれの部分と位置合わせされ、アプリケーションランチャーの代わりに表示されるように、位置プレビューをアプリケーションランチャーと任意選択で置き換えることと同様とすることができる。本明細書において用いられるとき、アプリケーションの起動に適用されるような「起動する」という用語は、アプリケーションを起動すること、および/またはアプリケーションにフォーカスを合わせること/アプリケーションをディスプレイ内に移すこと(例えば、既に実行済みの/現在実行中のアプリケーションにシステム全体のフォーカスを与えるか、または他の形で、アプリケーションを、ディスプレイ上でアプリケーションランチャーによって定義されたロケーションにおいて見えるようにすること)を含むことができる。
[0027] 図3は、図1の環境100内のヘッドマウントディスプレイデバイス106のユーザー102の例示的な視野300を示す。例えば、視野300は、ヘッドマウントディスプレイデバイス106のシースルーディスプレイを通じて視認可能な環境100の一部を表すことができる。視野内で、ユーザーは、注視線302によって示される方向を注視している場合があり、この方向は注視対象304に対応することができる。例えば、ユーザーがアプリケーションの起動を意図する場合、注視対象304に位置する空の壁を選択することができる。
[0028] 図4A〜図4Bは、ヘッドマウントディスプレイ(例えば、図1および図3におけるヘッドマウントディスプレイデバイス106のユーザー102)のシースルーディスプレイを通じた視野の例示的なタイムライン400を示す。例えば、時点T1における視野内で、図1のコンピューティングデバイス104、ディスプレイデバイス108およびセンサーデバイス110等の、環境100内の現実世界のオブジェクトは、通知アイコン402(例えば、天気および新たなメッセージのインジケーションを示す)等の表示された拡張要素と並行して視認可能とすることができる。注視線404によって表されるように、ユーザーの注視は、現実世界の環境における壁面に対応する注視対象406に向かって方向付けることができる。
[0029] 時点T2の前に、注視対象406でアプリケーションランチャーを表示する意図を示すユーザートリガーが認識される。例えば、ユーザートリガーは、時点T1と時点T2との間のある時点において実行および/または認識される場合がある。したがって、アプリケーションランチャーの位置プレビュー408は、現実世界の環境に対する拡張として表示することができ、それによって、プレビューが注視対象にセンタリングされる。
[0030] 時点T3の前に、位置プレビューがアプリケーションランチャーの意図されるロケーションを表すことの確認を示す確認入力が認識される。例えば、確認入力は、時点T2と時点T3との間のある時点において実行および/または認識される場合がある。したがって、位置プレビュー408は、アプリケーションランチャー410と置き換えられる。アプリケーションランチャー410は、複数のアイコン412を含み、各アイコンは、起動のために選択可能な異なるアプリケーションを識別する。アプリケーションランチャーは、位置プレビューによって以前に占有されていた同じ空間を占有する。
[0031] 時点T4において、注視線414によって示されるユーザーの注視は、アイコン412のうちの選択された1つ(例えば、アイコン412a)に向けられる。アプリケーションのユーザー選択は、時点T4と時点T5との間のある時点において実行される。したがって、時点T5において、アプリケーションランチャーは、選択されたアプリケーション(例えば、選択されたアプリケーションに関連付けられたユーザーインターフェースウィンドウ416)と置き換えられる。示される例において、選択されたアプリケーションは、アプリケーションランチャーと同じ境界内に提示されるが、他の構成が提供されてもよい。例えば、ユーザーインターフェースウィンドウ416の中心は、アプリケーションランチャー410の中心と同じロケーションに位置決めすることができるが、起動されるアプリケーションは、アプリケーションランチャーと異なるサイズ、向きおよび/または形状を有してもよい。
[0032] 図5は、図1の環境100内のユーザー102が、ヘッドマウントディスプレイデバイス106および関連付けられたシースルーディスプレイではなく、コンピューティングデバイス104およびディスプレイデバイス108とインタラクトする例示的なシナリオを示す。図示のように、注視線502によって表されるユーザー102の注視とユーザートリガーを組み合わせることにより、コンピューティングシステム104に、ディスプレイデバイス108上にアプリケーションランチャー504を表示させることができる。例えば、センサーデバイス110は、ユーザー102の眼を撮像し、画像をコンピューティングデバイス104に送信することができる。コンピューティングデバイス104は、画像を解析し、および/または画像を遠隔処理/解析のためにネットワークを介してリモートサービス(例えば、クラウドコンピューティングデバイス)に送信することができる。画像を解析するとき、コンピューティングデバイスは、視線方向を特定し、視線方向をディスプレイデバイス108上のロケーションにマッピングして、注視対象を特定することができる。ユーザートリガーおよび/または位置プレビューの確認に応答して、コンピューティングデバイス104は、ディスプレイデバイスに、注視対象のロケーションにアプリケーションランチャーを表示する(例えば、アプリケーションランチャーを注視対象にセンタリングする)ように命令することができる。
[0033] 上記で説明した方法およびシステムは、コンピューティングデバイスおよび/またはヘッドマウントディスプレイデバイスのユーザーのために、シームレスなアプリケーション起動体験を提供することができる。アプリケーションランチャー(およびその後選択されるアプリケーション)がユーザーの選択のロケーションに位置決めされることを可能にすることによって、ユーザーは、新たなアプリケーションが、拡張現実環境における既存の表示オブジェクトまたは現実世界のオブジェクトからの干渉の厄介な再配置を行うことなく起動可能であることを確実にすることができる。
[0034] いくつかの実施形態では、本明細書において説明される方法およびプロセスは、1つまたは複数のコンピューティングデバイスのコンピューティングシステムに結びつけることができる。特に、そのような方法およびプロセスは、コンピューターアプリケーションプログラムまたはサービス、アプリケーションプログラミングインターフェース(API)、ライブラリおよび/または他のコンピュータープログラム製品として実装することができる。
[0035] 図6は、上記で説明した方法およびプロセスのうちの1つまたは複数を実行することができるコンピューティングシステム600の非限定的な実施形態を概略的に示す。コンピューティングシステム600は、簡略化された形式で示される。コンピューティングシステム600は、1つまたは複数のヘッドマウントディスプレイデバイス、装着可能なデバイス、パーソナルコンピューター、サーバーコンピューター、タブレットコンピューター、ホームエンタテイメントコンピューター、ネットワークコンピューティングデバイス、ゲーミング機器、モバイルコンピューティングデバイス、モバイル通信デバイス(例えば、スマートフォン)および/または他のコンピューティングデバイスの形態をとることができる。例えば、コンピューティングシステム600は、図1、図3および図5のコンピューティングデバイス104および/またはヘッドマウントディスプレイデバイス106を含み、および/またはこれらに含めることができる。
[0036] コンピューティングシステム600は、論理マシン602およびストレージマシン604を含む。コンピューティングシステム600は、任意選択で、表示サブシステム606、入力サブシステム608、通信サブシステム610、および/または図6に示されていない他のコンポーネントを含んでもよい。
[0037] 論理マシン602は、命令を実行するように構成された1つまたは複数の物理的デバイスを含む。例えば、論理マシンは、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造または他の論理構造体の一部である命令を実行するように構成することができる。そのような命令は、タスクを実行し、データタイプを実装し、1つまたは複数のコンポーネントの状態を変形し、技術的効果を達成し、または他の形で所望の結果に到達するように実施することができる。
[0038] 論理マシンは、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。加えてまたは代替的に、論理マシンは、ハードウェア命令またはファームウェア命令を実行するように構成された1つまたは複数のハードウェア論理マシンまたはファームウェア論理マシンを含むことができる。論理マシンのプロセッサは、シングルコアまたはマルチコアとすることができ、これらの上で実行される命令は、直列、並列、および/または分散処理のために構成することができる。論理マシンの個々のコンポーネントは、任意選択で、2つ以上の別個のデバイス間で分散させることができ、これらは、遠隔に位置し、および/または協調処理のために構成することができる。論理マシンの態様は、クラウドコンピューティング構成において構成される、リモートでアクセス可能なネットワーク化されたコンピューティングデバイスによって仮想化および実行することができる。
[0039] ストレージマシン604は、本明細書に記載の方法およびプロセスを実施するように関連論理マシンによって実行可能な命令を保持するように構成された、1つまたは複数の物理的デバイスを含む。そのような方法およびプロセスが実施されるとき、ストレージマシン604の状態は、例えば、異なるデータを保持するように変換することができる。
[0040] ストレージマシン604は、リムーバブルデバイスおよび/または内蔵デバイスを含むことができる。ストレージマシン604は、中でも、光メモリ(例えば、CD、DVD、HD-DVD、ブルーレイディスク等)、半導体メモリ(例えば、RAM、EPROM、EEPROM等)および/または磁気メモリ(例えば、ハードディスクドライブ、フロッピーディスクドライブ、テープドライブ、MRAM等)を含むことができる。ストレージマシン604は、揮発性デバイス、不揮発性デバイス、ダイナミックデバイス、スタティックデバイス、リード/ライトデバイス、リードオンリーデバイス、ランダムアクセスデバイス、連続アクセスデバイス、ロケーションアドレス指定可能デバイス、ファイルアドレス指定可能デバイス、および/またはコンテンツアドレス指定可能デバイスを含むことができる。
[0041] ストレージマシン604は、1つまたは複数の物理的デバイスを含むことができることが理解されよう。一方、本明細書に記載の命令の態様は、代替的に、有限の持続時間にわたって物理的デバイスによって保持されない通信媒体(例えば、電磁信号、光信号等)によって伝播することができる。
[0042] 論理マシン602およびデータストレージマシン604の態様は、共に、1つまたは複数のハードウェア論理コンポーネントに統合することができる。そのようなハードウェア論理コンポーネントは、例えば、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラムおよび特定用途向け集積回路(PASIC/ASIC)、特定プログラムおよび特定用途向け標準製品(PSSP/ASSP)、システムオンチップ(SOC)、および複雑なプログラム可能論理デバイス(CPLD)を含むことができる。
[0043] 「モジュール」、「プログラム」および「エンジン」という用語は、特定の機能を実行するように実施されるコンピューターシステム600の態様を説明するために用いることができる。いくつかの場合、モジュール、プログラムまたはエンジンは、ストレージマシン604によって保持される命令を実行する論理マシン602を介してインスタンス化することができる。異なるモジュール、プログラムおよび/またはエンジンは、同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、機能等からインスタンス化することができることが理解されよう。同様に、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、機能等によって同じモジュール、プログラムおよび/またはエンジンをインスタンス化することができる。「モジュール」、「プログラム」および「エンジン」という用語は、個々の実行可能なファイル、データファイル、ライブラリ、ドライバー、スクリプト、データベースレコード等、またはそれらのグループを包含することができる。
[0044] 「サービス」という用語は、本明細書において用いられるとき、複数のユーザーセッションにわたって実行可能なアプリケーションプログラムであることが理解されよう。サービスは、1つまたは複数のシステムコンポーネント、プログラム、および/または他のサービスに利用可能であり得る。いくつかの実装態様で、サービスは、1つまたは複数のサーバーコンピューティングデバイスで実行することができる。
[0045] 表示サブシステム606は、含まれるとき、ストレージマシン604によって保持されるデータの視覚的表現を提示するために用いることができる。この視覚的表現は、グラフィカルユーザーインターフェース(GUI)の形態をとることができる。本明細書に記載の方法およびプロセスが、ストレージマシンによって保持されたデータを変更し、それによって、ストレージマシンの状態を変換するとき、表示サブシステム606の状態も同様に、基礎となるデータの変更を視覚的に表すように変換することができる。例えば、図1のヘッドマウントディスプレイデバイス106の論理マシンからの命令に応答して、シースルーディスプレイの状態は、ユーザートリガーの認識に応答してこのディスプレイ上でアプリケーションランチャーを表示するように変換することができる。表示サブシステム606は、実質的に任意のタイプの技術を使用する1つまたは複数のディスプレイデバイスを含むことができる。そのようなディスプレイデバイスは、共用エンクロージャー内の論理マシン602および/またはストレージマシン604と組み合わせることができ、またはそのようなディスプレイデバイスは、周辺ディスプレイデバイスであってもよい。
[0046] 入力サブシステム608は、含まれるとき、キーボード、マウス、タッチ画面、またはゲームコントローラー等の1つまたは複数のユーザー入力デバイスを備えるかまたはそれとインターフェースすることができる。いくつかの実施形態で、入力サブシステムは、選択された自然なユーザー入力(NUI)構成部品を備えるか、またはそれとインターフェースすることができる。そのような構成部品は、一体化されてもよく、または周辺装置であってもよく、入力アクションの変換および/または処理は、ボード上でまたはボード外で処理され得る。例示的なNUI構成部品は、発話および/または音声認識のためのマイクロフォン、マシンビジョンおよび/またはジェスチャー認識のための赤外線、色、立体、および/または深度カメラ、運動検出および/または意図認識のための頭部トラッカー、アイトラッカー、加速度計、および/またはジャイロスコープ、ならびに脳活動を評価するための電場感知構成部品を含み得る。
[0047] 通信サブシステム610は、含まれるとき、コンピューティングシステム600を1つまたは複数の他のコンピューティングデバイスと通信可能に結合するように構成することができる。通信サブシステム610は、1つまたは複数の異なる通信プロトコルと互換性のある有線および/または無線通信デバイスを含み得る。非限定的例として、通信サブシステムは、無線電話網、または有線もしくは無線のローカルもしくはワイドエリアネットワークを介する通信のために構成することができる。いくつかの実施形態で、通信サブシステムは、コンピューティングシステム600がインターネット等のネットワークを介して、他のデバイスに、および/または他のデバイスから、メッセージを送信および/または受信できるようにすることができる。
[0048] 図7は、シースルーディスプレイ702を有する装着可能な眼鏡の形態の図1および図3のHMDデバイス106の非限定的な例を示す。HMDデバイスは、透明、半透明および/または不透明なディスプレイが、見る人の片眼または両眼の前に支持される任意の他の適切な形態をとることができるが理解されよう。更に、本明細書に記載の実施形態は、限定ではないが、モバイルコンピューティングデバイス、ラップトップコンピューター、デスクトップコンピューター、タブレットコンピューター、他の装着可能なコンピューターを含む任意の他の適切なコンピューティングデバイスと共に用いられてもよい。
[0049] HMDデバイス106は、シースルーディスプレイ702およびコントローラー704を備える。シースルーディスプレイ702は、ホログラフィックオブジェクト等の画像がHMDデバイスの装着者の眼に送達されることを可能にすることができる。シースルーディスプレイ702は、透明なディスプレイを通じて物理環境を見ている装着者に対し現実世界の物理環境の概観を視覚的に拡張するように構成することができる。1つの例では、ディスプレイは、グラフィカルユーザーインターフェース上に1つまたは複数のUIオブジェクトを表示するように構成することができる。いくつかの実施形態では、グラフィカルユーザーインターフェース上に提示されるUIオブジェクトは、現実世界の環境の前に重ね合わされた仮想オブジェクトとすることができる。同様に、いくつかの実施形態では、グラフィカルユーザーインターフェース上に提示されるUIオブジェクトは、シースルーディスプレイ702を通して見た現実世界の環境の現実世界のオブジェクトの要素を組み込むことができる。他の例では、ディスプレイは、ゲーム、ビデオまたは他のビジュアルコンテンツに関連付けられた仮想オブジェクト等の1つまたは複数の他のグラフィカルオブジェクトを表示するように構成することができる。
[0050] 任意の適切なメカニズムを用いてシースルーディスプレイ702を介して画像を表示することができる。例えば、シースルーディスプレイ702は、レンズ706内に位置する画像生成要素(例えば、シースルー有機発光ダイオード(OLED)ディスプレイ等)を備えることができる。別の例として、シースルーディスプレイ702は、HMDデバイス106のフレーム内に位置するディスプレイデバイス(例えば、液晶オンシリコン(LCOS)デバイスまたはOLEDマイクロディスプレイ等)を備えることができる。この例において、レンズ706は、ディスプレイデバイスから装着者の眼に光を送達するためのライトガイドとしての役割を果たすか、またはこのライトガイドを他の形で備えることができる。そのようなライトガイドは、装着者が物理環境内の物理的オブジェクトを見ることも可能にしながら、装着者が見ている物理的環境内に位置する3Dホログラフィック画像を装着者が知覚することを可能にすることができ、これにより混合リアリティ環境を生成する。
[0051] HMDデバイス106は、情報をコントローラー704に提供するための様々なセンサーおよび関連システムも備えることができる。そのようなセンサーは、限定ではないが、1つまたは複数の内側を向いたイメージセンサー708aおよび708b、1つまたは複数の外側向いたイメージセンサー710、慣性計測装置(IMU)712、および1つまたは複数のマイクロフォン720を含むことができる。1つまたは複数の内側を向いたイメージセンサー708a、708bは、装着者の眼からの視線追跡データの形態で画像データを取得するように構成することができる(例えば、センサー708aは、装着者の眼のうちの一方の画像データを取得することができ、センサー708bは装着者の眼のうちの他方の画像データを取得することができる)。HMDデバイスは、イメージセンサー708a、708bから受信した情報に基づいて、任意の適切な方式で、装着者の各眼の視線方向を特定するように構成することができる。例えば、赤外線光源等の1つまたは複数の光源714a、714bは、装着者の各眼の角膜から閃光を反射させるように構成することができる。次に、1つまたは複数のイメージセンサー708a、708bは、装着者の眼の画像を捕捉するように構成することができる。イメージセンサー708a、708bから収集した画像データから特定される閃光および瞳孔の画像をコントローラー704によって用いて、各眼の光軸を特定することができる。この情報を用いて、コントローラー704は、装着者が注視している方向を特定するように構成することができる。コントローラー704は、装着者が注視している物理的オブジェクトおよび/または仮想オブジェクトの識別情報を更に特定するように構成することができる。
[0052] 1つまたは複数の外側を向いたイメージセンサー710は、HMDデバイス106が位置する物理的環境から物理的環境データを受信するように構成することができる。外側を向いたイメージセンサー710からのデータを用いて、ジェスチャーベースの入力、または視野内の装着者によってもしくは人物もしくは物理的オブジェクトによって行われる他の動き等の、ディスプレイ702の視野内の動きを検出することができる。1つの例において、外側を向いたイメージセンサー710からのデータを用いて、ディスプレイデバイス上に表示されるUIオブジェクトの選択を示すジェスチャー(例えば、指でつねる、拳を握る等)等のHMDデバイスの装着者によって行われる選択入力を検出することができる。外側を向いたセンサーからのデータを用いて、現実世界の環境におけるHMDデバイス106の位置/運動追跡を可能にする、方向/ロケーションおよび向きデータを(例えば、撮像環境特徴から)特定することもできる。
[0053] IMU712は、HMDデバイス106の位置および/または向きデータをコントローラー704に提供するように構成することができる。1つの実施形態において、IMU712は、3軸または3自由度の位置センサーシステムとして構成することができる。この例示的な位置センサーシステムは、例えば、3つの直交軸(例えば、x、y、z)の周りの3D空間内のHMDデバイス106の向きの変化(例えば、ロール、ピッチ、ヨー)を示すかまたは測定する3つのジャイロスコープを備えることができる。IMUのセンサー信号から導出される向きを用いて、シースルーディスプレイを介して、3自由度の1つまたは複数の仮想UIオブジェクトを表示することができる。
[0054] 別の例において、IMU712は、6軸または6自由度の位置センサーシステムとして構成することができる。そのような構成は、3つの直交軸に沿ったHMDデバイス106のロケーションの変化、および3つの直交軸の周りのデバイスの向きの変化を示すかまたは測定するための3つの加速度計および3つのジャイロスコープを含むことができる。いくつかの実施形態では、外側を向いたイメージセンサー710およびIMU712からの位置および向きのデータを併せて用いて、HMDデバイス106の位置および向きを特定することができる。
[0055] HMDデバイス106は、GPSまたは他のグローバルナビゲーションシステム等の他の適切な測位技法もサポートすることができる。更に、位置センサーシステムの特定の例が説明されたが、任意の他の適切な位置センサーシステムを用いてもよいことが理解されよう。例えば、限定ではないが、任意の数のジャイロスコープ、加速度計、慣性計測装置、GPSデバイス、バロメーター、磁気計、カメラ(例えば、可視光カメラ、赤外光カメラ、飛行時間深度カメラ、構造化光深度カメラ等)、通信デバイス(例えば、WIFIアンテナ/インターフェース)等を含む、装着者上に取り付けられたおよび/または装着者の外部のセンサーの任意の組み合わせからのセンサー情報に基づいて、頭部の姿勢および/または動きのデータを特定することができる。
[0056] 図7を継続すると、コントローラー704は、1つまたは複数の内側を向いたイメージセンサー708a、708bによって検出される情報に基づいて経時的に複数の注視サンプルを記録するように構成することができる。注視サンプルごとに、視線追跡情報、およびいくつかの実施形態では、(イメージセンサー710および/またはIMU712からの)頭部追跡情報を用いて、その注視サンプルの起点および方向ベクトルを推定し、注視がシースルーディスプレイと交わる推定ロケーションを生成することができる。注視サンプルを特定するために用いられる視線追跡情報および頭部追跡情報の例は、注視方向、頭部の向き、注視速度、注視加速度、注視方向の角度変化、および/または任意の他の適切な追跡情報を含むことができる。いくつかの実施形態では、注視追跡は、HMDデバイス106の装着者の両眼について独立して記録することができる。
[0057] 上述したように、HMDデバイス106は、マイクロフォン720等の、オーディオデータを捕捉する1つまたは複数のマイクロフォンも備えることができる。いくつかの例では、1つまたは複数のマイクロフォン720は、2つ以上のマイクロフォンを含むマイクロフォンアレイを含むことができる。例えば、マイクロフォンアレイは、2つが右レンズの上に位置決めされ、2つがHMDデバイスの左レンズの上に位置決めされた、4つのマイクロフォンを含むことができる。更に、オーディオ出力を、スピーカー722等の1つまたは複数のスピーカーを介して装着者に提示することができる。いくつかの実施形態では、マイクロフォンシステムは、シースルーディスプレイ上に表示されたグラフィカルユーザーインターフェース上に提示されるUIオブジェクトの選択を示すオーディオフィードバックを提供するように構成することができる。
[0058] コントローラー704は、様々なセンサーおよびHMDデバイスのディスプレイと通信する、図6に関して上記でより詳細に論考された、論理マシンおよびストレージマシンを備えることができる。1つの例において、ストレージマシンは、本明細書で説明するように、1つまたは複数の外部スピーカーに、表示された仮想オブジェクトのためのサウンドを提供するように論理マシンによって実行可能な命令を含むことができる。
[0059] 別の例は、視線追跡カメラを介して注視対象を認識することと、ユーザートリガーに応答して、ディスプレイを介して注視対象においてアプリケーションランチャーを表示することであって、アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、アプリケーションランチャーを、注視対象において複数のアプリケーションのうちの選択された1つと置き換えることと、を含む方法を提供する。加えてまたは代替的に、そのような例において、アプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることは、注視対象において、複数のアプリケーションのうちの選択された1つのグラフィカルユーザーインターフェース要素を表示することを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、視線追跡カメラおよび別の撮像デバイスのうちの1つまたは複数を介して認識されたジェスチャーを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、マイクロフォンを介して認識される音声コマンドを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは持続的な注視を含むことができ、加えてまたは代替的に、本方法は、視線追跡カメラを介して、ユーザーの注視がトリガー閾値よりも大きい持続時間にわたって注視対象に向けられていると認識することに応答してユーザートリガーを認識することを更に含むことができる。加えてまたは代替的に、そのような例において、本方法は、アプリケーションランチャーを表示する前に、注視対象においてアプリケーションランチャーの位置プレビューを表示することを更に含むことができる。加えてまたは代替的に、そのような例において、本方法は、ディスプレイを介して、確認入力に応答してアプリケーションランチャーの位置プレビューをアプリケーションランチャーと置き換えることを更に含むことができる。加えてまたは代替的に、そのような例において、ディスプレイはヘッドマウントディスプレイデバイスのシースルーディスプレイを含むことができ、加えてまたは代替的に、視線追跡カメラはヘッドマウントディスプレイデバイスに一体化することができる。加えてまたは代替的に、そのような例において、ディスプレイはヘッドマウントディスプレイデバイスのシースルーディスプレイを含むことができ、加えてまたは代替的に、ユーザートリガーはヘッドマウントディスプレイデバイスの遠隔にある撮像デバイスによって捕捉された画像の解析に基づいて認識することができる。上記で説明した例のうちの任意のものまたは全てを、様々な実施態様において任意の適切な方式で組み合わせることができる。
[0060] 別の例は、視線追跡カメラと、シースルーディスプレイと、論理マシンと、論理マシンによって実行可能な命令を保持するストレージマシンであって、これらの命令は、視線追跡カメラを介して注視対象を認識することと、ユーザートリガーに応答して、シースルーディスプレイを介して注視対象においてアプリケーションランチャーを表示することであって、アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、アプリケーションランチャーを、注視対象において複数のアプリケーションのうちの選択された1つと置き換えることとを行わせる命令である、ストレージマシンとを備えるヘッドマウントディスプレイデバイスを提供する。加えてまたは代替的に、そのような例において、ヘッドマウントディスプレイデバイスは入力サブシステムを更に備えることができ、加えてまたは代替的に、ユーザートリガーは、この入力サブシステムを介して検出することができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、ヘッドマウントディスプレイデバイスおよびヘッドマウントディスプレイデバイスの遠隔にあるカメラのうちの1つまたは複数を介して認識されるジェスチャーを含むことができる。加えてまたは代替的に、そのような例において、ヘッドマウントディスプレイデバイスはマイクロフォンを更に備えることができ、加えてまたは代替的に、ユーザートリガーは、マイクロフォンを介して認識された音声コマンドを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは持続的な注視を含むことができ、加えてまたは代替的に、命令は、視線追跡カメラを介して、注視対象がトリガー閾値よりも大きい持続時間にわたって維持されていると判定することに応答して持続的な注視を認識するように更に実行可能とすることができる。加えてまたは代替的に、そのような例において、アプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることは、シースルーディスプレイを介して、注視対象において、複数のアプリケーションのうちの選択された1つのグラフィカルユーザーインターフェース要素を表示することを含むことができる。加えてまたは代替的に、そのような例において、命令は、アプリケーションランチャーを表示する前に、シースルーディスプレイを介して、注視対象においてアプリケーションランチャーの位置プレビューを表示するように更に実行可能とすることができる。加えてまたは代替的に、そのような例において、命令は、シースルーディスプレイを介して、確認入力に応答してアプリケーションランチャーの位置プレビューをアプリケーションランチャーと置き換えるように更に実行可能とすることができる。上記で説明した例のうちの任意のものまたは全てを、様々な実施態様において任意の適切な方式で組み合わせることができる。
[0061] 別の例は、視線追跡カメラと、入力サブシステムと、シースルーディスプレイと、論理マシンと、論理マシンによって実行可能な命令を保持するストレージマシンであって、これらの命令は、視線追跡カメラを介して注視対象を認識することと、入力サブシステムを介して検出されたユーザートリガーに応答して、シースルーディスプレイを介して注視対象においてアプリケーションランチャーの位置プレビューを表示することと、入力サブシステムを介して検出された確認入力に応答して、シースルーディスプレイを介して、アプリケーションランチャーの位置プレビューを、起動のために選択可能な複数のアプリケーションを提示するアプリケーションランチャーと置き換えることと、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、アプリケーションランチャーを、注視対象において複数のアプリケーションのうちの選択された1つを置き換えることとを行わせる命令である、ストレージマシンとを備えるヘッドマウントディスプレイデバイスを提供する。加えてまたは代替的に、そのような例において、ユーザートリガーは、持続的な注視を含むことができ、加えてまたは代替的に、命令は、視線追跡カメラを介して、注視対象がトリガー閾値よりも大きい持続時間にわたって維持されていると判定することに応答して持続的な注視を認識するように更に実行可能とすることができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、入力サブシステムを介して認識されたジェスチャーおよび音声コマンドのうちの1つまたは複数を含むことができる。上記で説明した例のうちの任意のものまたは全てを、様々な実施態様において任意の適切な方式で組み合わせることができる。
[0062] 本明細書に記載の構成および/または手法は、実際は本質的に例示であり、多数の変形形態が可能であるので、これらの特定の実施形態または例は限定的な意味で解釈さられるべきではないことが理解されよう。本明細書に記載の特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つまたは複数を表すことができる。したがって、図示および/または記載された様々な動作は、図示および/または記載された順序で、他の順序で、並行して、または省略して、実行することができる。同様に、前述のプロセスの順番は、変更することができる。
[0063] 本開示の対象は、様々なプロセス、システムおよび構成の全ての新しいおよび非自明の組み合わせおよび部分的組み合わせと、本明細書で開示される他の特徴、機能、動作、および/または特性、ならびに、それらの任意のおよび全ての均等物を含む。
Claims (15)
- 視線追跡カメラを介して注視対象を認識することと、
ユーザートリガーに応答して、ディスプレイを介して前記注視対象においてアプリケーションランチャーを表示することであって、前記アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、
前記複数のアプリケーションのうちの1つのユーザー選択を認識することと、
前記ディスプレイを介して、前記注視対象において前記アプリケーションランチャーを前記複数のアプリケーションのうちの前記選択された1つと置き換えることと、
を含む、方法。 - 前記アプリケーションランチャーを前記複数のアプリケーションのうちの前記選択された1つと置き換えることは、前記注視対象において、前記複数のアプリケーションのうちの前記選択された1つのグラフィカルユーザーインターフェース要素を表示することを含む、請求項1に記載の方法。
- 前記ユーザートリガーは、前記視線追跡カメラおよび別の撮像デバイスのうちの1つまたは複数を介して認識されたジェスチャーを含む、請求項1に記載の方法。
- 前記ユーザートリガーは、マイクロフォンを介して認識される音声コマンドを含む、請求項1に記載の方法。
- 前記ユーザートリガーは持続的な注視を含み、前記方法は、前記視線追跡カメラを介して、前記ユーザーの注視がトリガー閾値よりも大きい持続時間にわたって前記注視対象に向けられていると認識することに応答して前記ユーザートリガーを認識することを更に含む、請求項1に記載の方法。
- 前記アプリケーションランチャーを表示する前に、前記注視対象において前記アプリケーションランチャーの位置プレビューを表示することを更に含む、請求項1に記載の方法。
- 前記ディスプレイを介して、確認入力に応答して前記アプリケーションランチャーの前記位置プレビューを前記アプリケーションランチャーと置き換えることを更に含む、請求項6に記載の方法。
- 前記ディスプレイは、ヘッドマウントディスプレイデバイスのシースルーディスプレイであり、前記視線追跡カメラは、前記ヘッドマウントディスプレイデバイスに一体化される、請求項1に記載の方法。
- 前記ディスプレイは、ヘッドマウントディスプレイデバイスのシースルーディスプレイであり、前記ユーザートリガーは、前記ヘッドマウントディスプレイデバイスの遠隔にある撮像デバイスによって捕捉された画像の解析に基づいて認識される、請求項1に記載の方法。
- ヘッドマウントディスプレイデバイスであって、
視線追跡カメラと、
シースルーディスプレイと、
論理マシンと、
前記論理マシンによって実行可能な命令を保持するストレージマシンであって、前記命令は、
前記視線追跡カメラを介して注視対象を認識することと、
ユーザートリガーに応答して、前記シースルーディスプレイを介して前記注視対象においてアプリケーションランチャーを表示することであって、前記アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、
前記複数のアプリケーションのうちの1つのユーザー選択を認識することと、
前記ディスプレイを介して、前記注視対象において前記アプリケーションランチャーを前記複数のアプリケーションのうちの前記選択された1つと置き換えることと、
を行わせる、ストレージマシンと、
を備える、ヘッドマウントディスプレイデバイス。 - 前記ユーザートリガーは、前記ヘッドマウントディスプレイデバイス、および前記ヘッドマウントディスプレイデバイスの遠隔にあるカメラのうちの1つまたは複数を介して認識されるジェスチャーを含む、請求項10に記載のヘッドマウントディスプレイデバイス。
- マイクロフォンを更に備え、前記ユーザートリガーは、前記マイクロフォンを介して認識された音声コマンドを含む、請求項10に記載のヘッドマウントディスプレイデバイス。
- 前記ユーザートリガーは持続的な注視を含むことができ、前記命令は、前記視線追跡カメラを介して、前記注視対象がトリガー閾値よりも大きい持続時間にわたって維持されていると判定することに応答して前記持続的な注視を認識するように更に実行可能である、請求項10に記載のヘッドマウントディスプレイデバイス。
- 前記命令は、前記アプリケーションランチャーを表示する前に、前記シースルーディスプレイを介して、前記注視対象において前記アプリケーションランチャーの位置プレビューを表示するように更に実行可能である、請求項10に記載のヘッドマウントディスプレイデバイス。
- 前記命令は、前記シースルーディスプレイを介して、確認入力に応答して前記アプリケーションランチャーの前記位置プレビューを前記アプリケーションランチャーと置き換えるように更に実行可能である、請求項14に記載のヘッドマウントディスプレイデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/559,841 US10248192B2 (en) | 2014-12-03 | 2014-12-03 | Gaze target application launcher |
US14/559,841 | 2014-12-03 | ||
PCT/US2015/062051 WO2016089638A1 (en) | 2014-12-03 | 2015-11-23 | Gaze target application launcher |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017538218A true JP2017538218A (ja) | 2017-12-21 |
Family
ID=54784032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017528540A Pending JP2017538218A (ja) | 2014-12-03 | 2015-11-23 | 注視対象アプリケーションランチャー |
Country Status (6)
Country | Link |
---|---|
US (1) | US10248192B2 (ja) |
EP (1) | EP3227762A1 (ja) |
JP (1) | JP2017538218A (ja) |
KR (1) | KR102473259B1 (ja) |
CN (1) | CN107003738B (ja) |
WO (1) | WO2016089638A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020052917A (ja) * | 2018-09-28 | 2020-04-02 | 株式会社リコー | 表示端末、表示制御方法およびプログラム |
DE102020000390A1 (de) | 2019-01-29 | 2020-07-30 | Fanuc Corporation | Robotersystem |
US11966518B2 (en) | 2022-09-19 | 2024-04-23 | Google Llc | Assistant device arbitration using wearable device data |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130339859A1 (en) | 2012-06-15 | 2013-12-19 | Muzik LLC | Interactive networked headphones |
EP2990920B1 (en) * | 2013-04-22 | 2019-04-03 | Fujitsu Limited | Information terminal control method |
JP2016170528A (ja) * | 2015-03-11 | 2016-09-23 | 株式会社リコー | 頭部装着型表示装置及び頭部装着型表示装置における外部機器との接続方法 |
US9472196B1 (en) * | 2015-04-22 | 2016-10-18 | Google Inc. | Developer voice actions system |
KR102110208B1 (ko) * | 2015-05-08 | 2020-05-13 | 엘지전자 주식회사 | 안경형 단말기 및 이의 제어방법 |
KR20170130582A (ko) * | 2015-08-04 | 2017-11-28 | 구글 엘엘씨 | 가상현실에서 시선 인터렉션을 위한 호버 행동 |
JP6684559B2 (ja) * | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
US10692113B2 (en) * | 2016-06-21 | 2020-06-23 | Htc Corporation | Method for providing customized information through advertising in simulation environment, and associated simulation system |
CN107801413B (zh) * | 2016-06-28 | 2020-01-31 | 华为技术有限公司 | 对电子设备进行控制的终端及其处理方法 |
CN106155326A (zh) * | 2016-07-26 | 2016-11-23 | 北京小米移动软件有限公司 | 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备 |
US20180077430A1 (en) * | 2016-09-09 | 2018-03-15 | Barrie Hansen | Cloned Video Streaming |
CN106200679B (zh) * | 2016-09-21 | 2019-01-29 | 中国人民解放军国防科学技术大学 | 基于多模态自然交互的单操作员多无人机混合主动控制方法 |
US20180150204A1 (en) * | 2016-11-30 | 2018-05-31 | Google Inc. | Switching of active objects in an augmented and/or virtual reality environment |
KR20180071092A (ko) | 2016-12-19 | 2018-06-27 | 삼성전자주식회사 | 사용자의 시선 및 입력에 기반하여 제어되는 전자 장치, 모바일 전자 장치 및 디스플레이 장치 |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US10365493B2 (en) | 2016-12-23 | 2019-07-30 | Realwear, Incorporated | Modular components for a head-mounted display |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US10437070B2 (en) | 2016-12-23 | 2019-10-08 | Realwear, Inc. | Interchangeable optics for a head-mounted display |
US10393312B2 (en) | 2016-12-23 | 2019-08-27 | Realwear, Inc. | Articulating components for a head-mounted display |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
GB201702939D0 (en) * | 2017-02-23 | 2017-04-12 | Rotem Gal | Systems, methods and computer readable storage media for conditioned accelerometer trigger in man-machine interface for virtual reality glasses |
JP6610602B2 (ja) * | 2017-04-07 | 2019-11-27 | 京セラドキュメントソリューションズ株式会社 | 表示入力装置 |
JP6774367B2 (ja) * | 2017-04-11 | 2020-10-21 | 富士フイルム株式会社 | ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム |
US10264380B2 (en) * | 2017-05-09 | 2019-04-16 | Microsoft Technology Licensing, Llc | Spatial audio for three-dimensional data sets |
US10747386B2 (en) | 2017-06-01 | 2020-08-18 | Samsung Electronics Co., Ltd. | Systems and methods for window control in virtual reality environment |
US10325409B2 (en) * | 2017-06-16 | 2019-06-18 | Microsoft Technology Licensing, Llc | Object holographic augmentation |
JP6852612B2 (ja) * | 2017-07-26 | 2021-03-31 | 富士通株式会社 | 表示プログラム、情報処理装置、及び表示方法 |
PL3654148T3 (pl) * | 2017-10-16 | 2023-11-06 | Tobii Dynavox Ab | Ulepszony dostęp do urządzeń obliczeniowych za pomocą śledzenia wzroku |
US10776475B2 (en) * | 2017-11-13 | 2020-09-15 | International Business Machines Corporation | Secure password input in electronic devices |
CN107885016B (zh) * | 2017-11-30 | 2021-06-01 | 北京小米移动软件有限公司 | 全息投影方法及装置 |
EP3520868A1 (en) | 2018-02-06 | 2019-08-07 | Gree, Inc. | Game processing system, method of processing game, and program for processing game |
JP6908573B2 (ja) | 2018-02-06 | 2021-07-28 | グリー株式会社 | ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム |
US10981067B2 (en) | 2018-02-06 | 2021-04-20 | Gree, Inc. | Game processing system, method of processing game, and storage medium storing program for processing game |
CN116328317A (zh) | 2018-02-06 | 2023-06-27 | 日本聚逸株式会社 | 应用处理系统、应用处理方法以及应用处理程序 |
US11157075B2 (en) * | 2018-05-01 | 2021-10-26 | Dell Products, L.P. | Gaze-activated voice services for interactive workspaces |
DK180639B1 (en) * | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
AU2019293961A1 (en) * | 2018-06-26 | 2020-10-22 | Alcon Inc. | Binocular system for entering commands |
CN109683705A (zh) * | 2018-11-30 | 2019-04-26 | 北京七鑫易维信息技术有限公司 | 眼球注视控制交互控件的方法、装置和系统 |
AT522012A1 (de) * | 2018-12-19 | 2020-07-15 | Viewpointsystem Gmbh | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer |
US10789952B2 (en) * | 2018-12-20 | 2020-09-29 | Microsoft Technology Licensing, Llc | Voice command execution from auxiliary input |
KR20200091988A (ko) * | 2019-01-23 | 2020-08-03 | 삼성전자주식회사 | 장치를 제어하기 위한 방법 및 그 전자 장치 |
CN110174937A (zh) * | 2019-04-09 | 2019-08-27 | 北京七鑫易维信息技术有限公司 | 注视信息控制操作的实现方法及装置 |
CH716053A1 (de) * | 2019-04-10 | 2020-10-15 | Smart Secure Id Ag | Biometrische Bildungsvorrichtung und biometrisches Bildungsverfahren zum Erfassen von Bilddaten eines Körperteils einer Person mit Benutzerführung. |
KR102570009B1 (ko) * | 2019-07-31 | 2023-08-23 | 삼성전자주식회사 | Ar 객체 생성 방법 및 전자 장치 |
US11269407B2 (en) * | 2020-01-30 | 2022-03-08 | Dell Products L.P. | System and method of determining attributes of a workspace configuration based on eye gaze or head pose |
US11455744B2 (en) | 2020-02-07 | 2022-09-27 | Toyota Research Institute, Inc. | Systems and methods for determining a viewing direction of a user |
US11281291B1 (en) | 2020-10-20 | 2022-03-22 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11320903B1 (en) | 2020-10-20 | 2022-05-03 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11747896B2 (en) | 2020-10-20 | 2023-09-05 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11609629B2 (en) | 2020-10-20 | 2023-03-21 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11392198B2 (en) | 2020-10-20 | 2022-07-19 | ROVl GUIDES, INC. | Methods and systems of extended reality environment interaction based on eye motions |
EP4232881A1 (en) * | 2020-10-20 | 2023-08-30 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
CN114527864B (zh) * | 2020-11-19 | 2024-03-15 | 京东方科技集团股份有限公司 | 增强现实文字显示系统、方法、设备及介质 |
CN116711302A (zh) | 2020-12-16 | 2023-09-05 | 三星电子株式会社 | 以低时延发送多条应用数据的方法和装置 |
KR20220086367A (ko) * | 2020-12-16 | 2022-06-23 | 삼성전자주식회사 | 저지연으로 복수의 어플리케이션 데이터 전송 방법 및 장치 |
US11449149B2 (en) * | 2021-02-03 | 2022-09-20 | Google Llc | Assistant device arbitration using wearable device data |
JP2022136601A (ja) * | 2021-03-08 | 2022-09-21 | キヤノン株式会社 | 電子機器およびその制御方法およびプログラム |
US11868523B2 (en) | 2021-07-01 | 2024-01-09 | Google Llc | Eye gaze classification |
KR20230037147A (ko) * | 2021-09-09 | 2023-03-16 | 한국전자통신연구원 | 비접촉 응시 기반 헤딩 정보를 이용한 사용자 명령 인식 장치 및 이를 이용한 방법 |
WO2023081574A1 (en) * | 2021-11-02 | 2023-05-11 | Google Llc | Gaze-mediated augmented reality interaction with sources of sound in an environment |
US20230135974A1 (en) | 2021-11-04 | 2023-05-04 | Microsoft Technology Licensing, Llc | Multi-factor intention determination for augmented reality (ar) environment control |
WO2023080957A1 (en) * | 2021-11-04 | 2023-05-11 | Microsoft Technology Licensing, Llc. | Multi-factor intention determination for augmented reality (ar) environment control |
WO2023080943A1 (en) * | 2021-11-04 | 2023-05-11 | Microsoft Technology Licensing, Llc. | Multi-factor intention determination for augmented reality (ar) environment control |
CN114679612A (zh) * | 2022-03-15 | 2022-06-28 | 辽宁科技大学 | 智能家居系统及其控制方法 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US20090199127A1 (en) * | 2008-01-31 | 2009-08-06 | Microsoft Corporation | Previewing target display areas |
US9041660B2 (en) * | 2008-12-09 | 2015-05-26 | Microsoft Technology Licensing, Llc | Soft keyboard control |
US9569001B2 (en) | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US20120005624A1 (en) | 2010-07-02 | 2012-01-05 | Vesely Michael A | User Interface Elements for Use within a Three Dimensional Scene |
US9557812B2 (en) | 2010-07-23 | 2017-01-31 | Gregory A. Maltz | Eye gaze user interface and calibration method |
US8817053B2 (en) * | 2010-09-30 | 2014-08-26 | Apple Inc. | Methods and systems for opening a file |
CN103347437B (zh) * | 2011-02-09 | 2016-06-08 | 苹果公司 | 3d映射环境中的凝视检测 |
US8743244B2 (en) | 2011-03-21 | 2014-06-03 | HJ Laboratories, LLC | Providing augmented reality based on third party information |
JP5960796B2 (ja) * | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
US20120299962A1 (en) | 2011-05-27 | 2012-11-29 | Nokia Corporation | Method and apparatus for collaborative augmented reality displays |
AU2011204946C1 (en) | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
US8217856B1 (en) * | 2011-07-27 | 2012-07-10 | Google Inc. | Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US8963805B2 (en) | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
US9035878B1 (en) * | 2012-02-29 | 2015-05-19 | Google Inc. | Input system |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US9423870B2 (en) * | 2012-05-08 | 2016-08-23 | Google Inc. | Input determination method |
US9389420B2 (en) | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
CN104428732A (zh) * | 2012-07-27 | 2015-03-18 | 诺基亚公司 | 与近眼显示器的多模交互 |
US9201500B2 (en) * | 2012-09-28 | 2015-12-01 | Intel Corporation | Multi-modal touch screen emulator |
US9007301B1 (en) * | 2012-10-11 | 2015-04-14 | Google Inc. | User interface |
US9977492B2 (en) | 2012-12-06 | 2018-05-22 | Microsoft Technology Licensing, Llc | Mixed reality presentation |
US20140195918A1 (en) * | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
US20140191927A1 (en) | 2013-01-09 | 2014-07-10 | Lg Electronics Inc. | Head mount display device providing eye gaze calibration and control method thereof |
CN104919408A (zh) * | 2013-01-25 | 2015-09-16 | 惠普发展公司,有限责任合伙企业 | 用户界面应用启动器及其方法 |
US9368113B2 (en) * | 2013-01-30 | 2016-06-14 | Google Inc. | Voice activated features on multi-level voice menu |
US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
US20140247232A1 (en) | 2013-03-01 | 2014-09-04 | Tobii Technology Ab | Two step gaze interaction |
US20140247208A1 (en) * | 2013-03-01 | 2014-09-04 | Tobii Technology Ab | Invoking and waking a computing device from stand-by mode based on gaze detection |
KR20140108995A (ko) * | 2013-03-04 | 2014-09-15 | 삼성전자주식회사 | 페이지의 일부 영역을 이용한 데이터 처리 방법 및 장치 |
US9685001B2 (en) * | 2013-03-15 | 2017-06-20 | Blackberry Limited | System and method for indicating a presence of supplemental information in augmented reality |
CN105190480B (zh) * | 2013-05-09 | 2018-04-10 | 索尼电脑娱乐公司 | 信息处理设备和信息处理方法 |
KR102098277B1 (ko) * | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
US10025378B2 (en) * | 2013-06-25 | 2018-07-17 | Microsoft Technology Licensing, Llc | Selecting user interface elements via position signal |
US9264702B2 (en) * | 2013-08-19 | 2016-02-16 | Qualcomm Incorporated | Automatic calibration of scene camera for optical see-through head mounted display |
CN103605208B (zh) * | 2013-08-30 | 2016-09-28 | 北京智谷睿拓技术服务有限公司 | 内容投射系统及方法 |
US9256785B2 (en) * | 2013-11-12 | 2016-02-09 | Fuji Xerox Co., Ltd. | Identifying user activities using eye tracking data, mouse events, and keystrokes |
KR101920983B1 (ko) * | 2014-04-23 | 2018-11-21 | 노키아 테크놀로지스 오와이 | 헤드 마운트형 디스플레이 상에서의 정보의 디스플레이 |
-
2014
- 2014-12-03 US US14/559,841 patent/US10248192B2/en active Active
-
2015
- 2015-11-23 EP EP15805368.6A patent/EP3227762A1/en not_active Withdrawn
- 2015-11-23 CN CN201580066164.7A patent/CN107003738B/zh active Active
- 2015-11-23 KR KR1020177018380A patent/KR102473259B1/ko active IP Right Grant
- 2015-11-23 WO PCT/US2015/062051 patent/WO2016089638A1/en active Application Filing
- 2015-11-23 JP JP2017528540A patent/JP2017538218A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020052917A (ja) * | 2018-09-28 | 2020-04-02 | 株式会社リコー | 表示端末、表示制御方法およびプログラム |
JP7284449B2 (ja) | 2018-09-28 | 2023-05-31 | 株式会社リコー | 表示端末、表示制御方法およびプログラム |
DE102020000390A1 (de) | 2019-01-29 | 2020-07-30 | Fanuc Corporation | Robotersystem |
US11267132B2 (en) | 2019-01-29 | 2022-03-08 | Fanuc Corporation | Robot system |
DE102020000390B4 (de) | 2019-01-29 | 2023-07-20 | Fanuc Corporation | Robotersystem |
US11966518B2 (en) | 2022-09-19 | 2024-04-23 | Google Llc | Assistant device arbitration using wearable device data |
Also Published As
Publication number | Publication date |
---|---|
US20160162020A1 (en) | 2016-06-09 |
CN107003738A (zh) | 2017-08-01 |
KR20170090490A (ko) | 2017-08-07 |
CN107003738B (zh) | 2021-02-02 |
US10248192B2 (en) | 2019-04-02 |
EP3227762A1 (en) | 2017-10-11 |
WO2016089638A1 (en) | 2016-06-09 |
KR102473259B1 (ko) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107003738B (zh) | 注视目标应用启动器 | |
EP3345074B1 (en) | Augmented reality control of computing device | |
EP3092546B1 (en) | Target positioning with gaze tracking | |
US10672103B2 (en) | Virtual object movement | |
US9977492B2 (en) | Mixed reality presentation | |
US10222981B2 (en) | Holographic keyboard display | |
US10754496B2 (en) | Virtual reality input | |
CN108027649B (zh) | 定位增强现实环境中的设备 | |
JP6611733B2 (ja) | 表示装置の閲覧者の注視誘引 | |
US9584915B2 (en) | Spatial audio with remote speakers | |
US9329678B2 (en) | Augmented reality overlay for control devices | |
JP6359099B2 (ja) | ユーザインターフェースナビゲーション | |
US20170277256A1 (en) | Virtual-reality navigation | |
US20140071163A1 (en) | Augmented reality information detail | |
US20180150997A1 (en) | Interaction between a touch-sensitive device and a mixed-reality device | |
EP2887639A1 (en) | Augmented reality information detail | |
EP2886173B1 (en) | Augmented reality overlay for control devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20170719 |