JP2017538218A - 注視対象アプリケーションランチャー - Google Patents

注視対象アプリケーションランチャー Download PDF

Info

Publication number
JP2017538218A
JP2017538218A JP2017528540A JP2017528540A JP2017538218A JP 2017538218 A JP2017538218 A JP 2017538218A JP 2017528540 A JP2017528540 A JP 2017528540A JP 2017528540 A JP2017528540 A JP 2017528540A JP 2017538218 A JP2017538218 A JP 2017538218A
Authority
JP
Japan
Prior art keywords
application launcher
gaze
display
user
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017528540A
Other languages
English (en)
Inventor
リーマン,テイラー
ピメル,キム,パスカル
ベハリー,クセルクセス
バダ,ランジブ
チャン,ジャシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017538218A publication Critical patent/JP2017538218A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

アプリケーションランチャーの表示位置を制御する方法のための実施形態が開示される。例示的な方法は、視線追跡カメラを介して注視対象を認識することと、ユーザートリガーに応答して、ディスプレイを介して注視対象においてアプリケーションランチャーを表示することとを含み、アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する。例示的な方法は、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、注視対象においてアプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることを更に含む。

Description

[0001] コンピューティングデバイスは、動作を行うためのアプリケーションを実行することができる。コンピューティングデバイスのアプリケーションにアクセスするために、利用可能なアプリケーションのインジケーションを有するユーザーインターフェース要素を選択用に提示することができる。
[0002] コンピューティングデバイス用のアプリケーションランチャーのロケーションを制御する方法のための実施形態が開示される。例示的な方法は、注視対象を認識することと、ユーザートリガーに応答して注視対象においてアプリケーションランチャーを表示することとを含む。本方法は、複数のアプリケーションのうちの1つのユーザー選択を認識することと、注視対象においてアプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることを更に含む。
[0003] この発明の概要は、詳細な説明において以下で更に説明される概念の抜粋を単純化された形態で紹介するように提供される。この発明の概要は、特許請求される主題の主要な特徴または重要な特徴を特定するように意図されたものでもなければ、特許請求される主題の範囲を限定するように用いられることを意図されたものでもない。更に、特許請求される主題は、本開示の任意の部分におけるありとあらゆる不利な点を解決する実施態様に限定されない。
[0004]コンピューティングデバイスおよび関連するディスプレイとインタラクトするための例示的な環境を示す。 [0005]アプリケーションランチャーの位置を制御するための例示的な方法のフローチャートである。 [0006]図1の例示的な環境におけるヘッドマウントディスプレイデバイスのユーザーの例示的な視野を示す。 [0007]ヘッドマウントディスプレイを通じたユーザーの視野の例示的なタイムラインを示す。 ヘッドマウントディスプレイを通じたユーザーの視野の例示的なタイムラインを示す。 [0008]ディスプレイデバイス上にアプリケーションランチャーを提示するための例示的な環境を示す。 [0009]例示的なコンピューティングシステムのブロック図である。 [0010]ヘッドマウントディスプレイデバイスの例を概略的に示す。
[0011] 本開示のコンピューティングデバイスは、アプリケーション起動を容易にするように構成される。1つの例において、拡張現実コンピューティングデバイスは、ユーザーが見ている注視対象を認識することができる。ユーザートリガーに応答して、拡張現実コンピューティングデバイスは、アプリケーションランチャー(またはアプリケーションランチャーのアフォーダンスまたはプレビュー)の拡張現実画像を、アプリケーションランチャーが注視対象に位置しているように見えるように表示するように構成される。その後、アプリケーションランチャーから起動されたアプリケーションは、アプリケーションランチャーと置き換わることができる。したがって、アプリケーションランチャーのためのロケーションを選択することによって、ユーザーは、その後起動されるアプリケーションのためのロケーションを効率的に選択している。双方の選択は、ユーザーの注視に基づく。別の例では、従来のディスプレイ上へのユーザーの注視が評価され、注視の表示ロケーションにアプリケーションランチャーまたはプレビューが表示され、ユーザー選択に応答して、起動されたアプリケーションがアプリケーションランチャーに置き換わる。
[0012] 拡張現実環境において、アプリケーションランチャーは、ユーザーが、拡張現実体験を抜け出すことなく、「どこからともなく(out of thin air)」または現実世界環境における任意の適切な表面上のオーバーレイとしてアプリケーションを起動することを可能にする。そのような環境において、アプリケーションランチャーは、ランチャーが、ヘッドマウントディスプレイデバイスの動きにかかわらず、現実世界のオブジェクトに対し同じ位置に留まっているように見えるようにワールドロックする(world-lock)ことができる。他の実施態様では、アプリケーションランチャーは、ユーザーと共に動くように見えるようにボディロックする(body-lock)ことができる。いくつかの実施態様では、アプリケーションランチャーは、ワールドロックモードとボディロックモードとの間で切り替えることができる。
[0013] 図1は、ユーザー102がコンピューティングデバイス104およびヘッドマウントディスプレイデバイス106のうちの1つまたは複数とインタラクトしてアプリケーションを起動することができる例示的な環境100を示す。例えば、アプリケーションは、ヘッドマウントディスプレイデバイス106を用いて起動することができる。コンピューティングデバイス104は、限定ではないが、ビデオゲームコンソール、ホームエンタテイメントデバイス(例えば、オーディオ/ビデオ受信機)、パーソナルコンピューティングデバイス、ラップトップ、スマートフォン、タブレットコンピューティングデバイス、および/または任意の他の適切なコンピューティングシステムを含む任意の適切なコンピューティングデバイスを含むことができる。ヘッドマウントディスプレイデバイス106は、シースルーディスプレイを通じて視認可能な現実世界環境に対する拡張として表示データを提示するためのシースルーディスプレイ等の1つまたは複数の出力デバイスと、オーディオデータを出力するためのスピーカーとを備えることができる。ヘッドマウントディスプレイ(HMD)デバイス106は、HMDデバイスに一体化された、またはHMDデバイスに通信可能に結合された1つまたは複数のセンサーサブシステムを更に含むことができる。例えば、1つまたは複数のセンサーサブシステムは、限定ではないが、視線追跡カメラ(例えば、ヘッドマウントディスプレイデバイスの装着者の眼の画像を捕捉して、装着者の注視対象を特定するように構成された後ろ向きのカメラ)、マイクロフォン、および(例えば、環境の画像を捕捉するための)前向きのカメラを含むことができる。
[0014] コンピューティングデバイス104および/またはヘッドマウントディスプレイデバイス106は、アプリケーションランチャーおよび/または1つもしくは複数の起動されたアプリケーションを提示するために、ヘッドマウントディスプレイデバイス106のディスプレイデバイス108および/またはシースルーディスプレイに通信可能に接続することができる。他の実施態様では、アプリケーション起動機能は、ディスプレイデバイス108および/またはヘッドマウントディスプレイデバイス106の搭載されたコンピューティングシステムによってハンドリングすることができる。また他の実施態様では、アプリケーション起動機能のうちの少なくともいくつかを、リモートコンピューターまたはサービスによってハンドリングすることができる。例示的なアプリケーションランチャー109が、環境の壁面に示され、破線は、アプリケーションランチャーが、ヘッドマウントディスプレイデバイス106を通じて、環境に対する拡張として視認可能であることを示す。アプリケーションランチャー109は、それぞれのユーザーインターフェース要素の選択により起動することができる1つまたは複数のアプリケーションを示す1つまたは複数のアイコンまたは他のユーザーインターフェース要素を含むことができる。
[0015] センサー110は、(例えば、環境100の)RGBイメージデータ/フレームおよび/または深度画像データ/フレームを捕捉するための、可視光カメラ、赤外線カメラおよび/または可視光/赤外光プロジェクターのうちの1つまたは複数を備えることができる。いくつかの例において、センサー110の1つまたは複数のカメラは、ユーザーの注視対象を特定するためにユーザーの眼の画像を捕捉するように構成された視線追跡カメラとすることができる。加えてまたは代替的に、センサー110は、(例えば、環境100から)サウンドを受信するための1つまたは複数の指向性マイクロフォンを備えることができる。
[0016] 図2は、アプリケーションランチャーの位置を制御するための方法200のフローチャートである。方法200は、限定ではないが、コンピューティングデバイス104、ヘッドマウントディスプレイデバイス106、またはリモートコンピューティングデバイスもしくはサービスを含む、任意の適切なコンピューティングデバイスによって実行することができる。202において、方法200は注視対象を認識することを含む。任意の適切な視線追跡技法を実行して注視対象を認識することができる。例えば、視線方向を特定するために、ヘッドマウントディスプレイデバイス106の視線追跡カメラおよび/または図1のセンサー110の視線追跡カメラがユーザーの眼の画像を捕捉することができる。視線方向は、ユーザーの眼からディスプレイまたは表面(例えば、ヘッドマウントディスプレイデバイス106のシースルーディスプレイ、図1のディスプレイデバイス108、および/またはプロジェクターが画像を投影することができる表面)に向かって延びるベクトルを含むことができる。視線方向のベクトルがディスプレイに交差するロケーション(例えば、ピクセル座標)は、注視対象(例えば、視線が向けられたディスプレイ上のロケーション)であると特定することができる。他の例において、注視対象は、頭部の動きを追跡することによって認識することができる。そのような例において、「注視」という用語は、本明細書において用いられるとき、頭部を対象とした(head-targeting)注視を指すことができる。
[0017] 204において、本方法は、アプリケーションランチャーを表示する要求を示すユーザートリガーを認識することを含む。ユーザートリガーは、コンピューティングデバイスおよび/またはヘッドマウントディスプレイデバイスによって認識可能な任意の適切なユーザー入力を含むことができる。例えば、ユーザートリガーは、(例えば、注視対象を認識するために用いられるような)視線追跡カメラおよび別の撮像デバイス(例えば、図1のセンサー110等の、環境を撮像するための可視光カメラ、赤外カメラまたは深度カメラ)のうちの1つまたは複数を介して認識されるジェスチャー(例えば、手、顔および/または身体ジェスチャー)を含むことができる。加えてまたは代替的に、ユーザートリガーは、マイクロフォンおよび1つまたは複数の音声認識モジュール(例えば、コンピューティングデバイスに対しローカルであり、および/またはコンピューティングデバイスに通信可能に接続されたリモートサービス内でローカルである)を介して認識される音声コマンドを含む。更なるまたは代替的な例において、ユーザートリガーは、持続した視線(例えば、トリガー閾値よりも長い持続時間にわたって、ユーザーの注視が注視対象に向けられているおよび/または注視対象が維持されているという認識)を含むことができる。注視対象認識を含むユーザートリガーは、注視がディスプレイ、ユーザーインターフェースおよび/または環境の「空き」領域に向けられていると識別することを含むことができる。例えば、「空き」領域は、ユーザーインターフェース要素を含まない領域、および/または選択可能な現実世界のオブジェクトもしくは表示オブジェクトを含まない領域を含むことができる。
[0018] 加えてまたは代替的に、ユーザートリガーは、ディスプレイデバイス上に表示されるユーザーインターフェース要素に視線が向けられること、制御デバイスまたは他の入力デバイス(例えば、ヘッドマウントディスプレイの外部の制御デバイスおよび/またはアプリケーションを起動するのに用いられるコンピューティングデバイス)上の物理的ボタンの起動、および/または任意の他の適切なユーザー入力を含むことができる。ユーザー入力の任意の組み合わせをユーザートリガーとして認識することができることが理解される。
[0019] 206に示されるように、本方法は、ユーザートリガーに応答して注視対象においてアプリケーションランチャー(例えば、図1のアプリケーションランチャー109)の位置プレビューを表示することを含むことができる。アプリケーションランチャーの位置プレビューを表示することにより、ユーザーがアプリケーションランチャーの配置を精密に調整する機会を与えることができる。位置プレビューは、プレビューによって示されるロケーションにおけるアプリケーションランチャーの配置が注視対象およびユーザートリガーの意図される結果であることをユーザーが確認することを可能にすることもできる。例えば、位置プレビューは、アプリケーションランチャーの輪郭(例えば、アプリケーションランチャーに対応するユーザーインターフェース要素またはアプリケーションウィンドウの外縁の輪郭)とすることができる。更なる例または代替的な例では、位置プレビューは、アプリケーションランチャーが表示されることになる位置、サイズおよび/または形状のインジケーションを与える、アプリケーションランチャーの半透明バージョン、アプリケーションランチャーのアニメーション、および/またはアプリケーションランチャーの他の形で変更されたバージョン(例えば、異なるサイズ、回転、形状および/または他の特徴を有する)とすることができる。いくつかの例では、位置プレビューの中心を、(位置プレビューが受理された後)アプリケーションランチャーと同じ、ディスプレイのピクセル座標とすることができる。このようにして、プレビューは、表示されることになるアプリケーションランチャーおよび/またはアプリケーションの外観、サイズ、位置および/または他の特徴の近似を与える(例えば、これにより、ユーザーが、起動されることになるアプリケーションが専有する空間量を特定することを可能にする)ことができる。
[0020] 208に示すように、方法200は、確認入力またはプレビュー持続時間の満了が認識されたか否かを判定することを含むことができる。確認入力は、限定ではないが、ユーザートリガーに関して上記で説明した例のうちの1つまたは複数を含む任意の適切なユーザー入力を含むことができる。例えば、確認入力は、ヘッドマウントディスプレイ内に一体化されたおよび/またはヘッドマウントディスプレイに対し遠隔にあるカメラによって認識可能なジェスチャーを含むことができる。加えてまたは代替的に、位置プレビューは、所定の(例えば、製造者によって定義されたおよび/またはユーザー制御による設定内の)プレビュー持続時間を有し、この所定のプレビュー持続時間は、プレビューを確認/キャンセル/調整するユーザー入力なしでプレビューを表示する時間量を定義する。
[0021] 208において確認入力が認識されず、プレビュー持続時間が満了していない場合(例えば、208における「いいえ」)、本方法は210に進み、キャンセルまたは調整入力が認識されるか否かを判定する。キャンセル入力は、アプリケーションランチャー(および関連付けられた位置プレビュー)の提示をキャンセルする意図を示す適切なユーザー入力(例えば、上記で説明したユーザー入力の例のうちの1つまたは複数の任意の組み合わせ)を含むことができる。例えば、キャンセル入力により、ユーザーが誤検出のユーザートリガー認識を示すことを可能にすることができる。調整入力は、位置プレビュー(およびその後表示されるアプリケーションランチャー)の位置を調整するユーザーの意図を識別する、キャンセル入力と異なるユーザー入力を含むことができる。調整入力は、位置プレビューを動かす方向、位置プレビューを動かす量、および/または位置プレビューのエッジ、中心および/または他の部分が配置されるディスプレイ上のロケーションを示すユーザー入力を含むことができる。例えば、ユーザーは、調整が行われることを示すジェスチャーを行い、プレビューの中心が配置される新たなロケーションを注視することができる。
[0022] 210においてキャンセルおよび/または調整入力が受信されない場合(例えば、210における「いいえ」)、本方法は212に進んで現在のロケーションにおけるプレビューの表示を継続し、208に戻って確認入力および/またはプレビュー持続時間の満了のチェックを継続することができる。逆に、210においてキャンセルおよび/または調整入力が受信される場合(例えば、210における「はい」)、本方法は、214に進んで現在のロケーションにおけるプレビューの表示を停止することができる。例えば、210においてキャンセル入力が認識される場合、プレビューは、ディスプレイから完全に取り除くことができ、本方法は、終了しおよび/または202に戻って新たな注視対象を認識することができる。210において調整入力が認識される場合、本方法は、216に示されるように、プレビューを新たなロケーションに動かすことを含み、208に戻って、確認入力および/またはプレビュー持続時間の満了に基づいて、新たなロケーションが受容可能であるか否かを判定することができる。
[0023] 208に戻り、確認入力またはプレビュー持続時間の満了が認識される場合(例えば、208における「はい」)、本方法は、218に進み、アプリケーションランチャーを表示する。例えば、220に示すように、位置プレビューをアプリケーションランチャーと置き換え、アプリケーションランチャーの少なくともエッジ、中心または他の部分が、(例えば、206において表示される、および/または216における新たなロケーションでの)位置プレビューのエッジ、中心または他の部分のそれぞれのロケーションに配置されるようにすることができる。プレビューが表示されない(例えば、206〜216が実行されない)例において、アプリケーションランチャーは、204において認識されたユーザートリガーに直接応答して218において表示することができることが理解されよう。例示的なアプリケーションランチャー109が図1に示され、更なる例が図4A、図4Bおよび図5に関して以下で説明される。また、いくつかの例において、プレビュー持続時間は、確認ではなく、表示している位置プレビューおよびアプリケーションランチャーのキャンセルに関連付けられてもよいことを理解されたい。そのような例では、208におけるプレビュー持続時間の満了によって、本方法は218ではなく214に進むことができる。
[0024] 218において表示されるアプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示することができる。例えば、アプリケーションランチャーは、コンピューティングデバイスによって実行可能な全てのアプリケーションおよび/またはコンピューティングによって実行可能なアプリケーションのサブセットを表すことができる。後者の例において、アプリケーションのサブセットは、ユーザープリファレンス、コンピューティングデバイスの現在のコンテキスト(例えば、コンピューティングデバイスの環境、コンピューティングデバイスのステータス、日時等)、コンピューティングデバイスの最近のアクティブティ(例えば、開いている、または最近用いられたアプリケーション)、現在の注視対象、ユーザー命令および/または任意の他の適切なパラメーターに基づいて、提示のために自動的に選択することができる。アプリケーションランチャーは、アプリケーションランチャーの境界内で視認可能であるよりも多くのアプリケーションを含むことができ、スクローリングおよび/またはページめくりを用いて、現在起動のために提示されているアプリケーションを変更することができる。
[0025] 222において、本方法200は、アプリケーションランチャーにおけるアプリケーションのユーザー選択を認識することを含む。アプリケーションのユーザー選択は、任意の適切な方式で行うことができ、上記で説明したユーザー入力メカニズムのうちの任意のものを含むことができる。例えば、ユーザーは、特定のアプリケーションを識別する音声コマンドを提供することによって、および/またはそのアプリケーションを識別するアプリケーションランチャー内に表示されるユーザーインターフェース要素に注視を向けることによって、このアプリケーションを識別することができる。別の例として、ユーザーは、1つまたは複数のカメラによって認識されるポインティングジェスチャーを行うことができる。
[0026] 224に示すように、本方法は、アプリケーションランチャーを選択されたアプリケーションと置き換えることを含む。例えば、アプリケーションランチャーを選択されたアプリケーションと置き換えることは、注視対象におよび/またはアプリケーションランチャーのロケーションに、選択されたアプリケーションのグラフィカルユーザーインターフェース要素および/またはウィンドウを表示することを含むことができる。アプリケーションランチャーをアプリケーションと置き換えることは、アプリケーションの表示可能な部分(例えば、エッジ、中心、境界等)がアプリケーションランチャーのそれぞれの部分と位置合わせされ、アプリケーションランチャーの代わりに表示されるように、位置プレビューをアプリケーションランチャーと任意選択で置き換えることと同様とすることができる。本明細書において用いられるとき、アプリケーションの起動に適用されるような「起動する」という用語は、アプリケーションを起動すること、および/またはアプリケーションにフォーカスを合わせること/アプリケーションをディスプレイ内に移すこと(例えば、既に実行済みの/現在実行中のアプリケーションにシステム全体のフォーカスを与えるか、または他の形で、アプリケーションを、ディスプレイ上でアプリケーションランチャーによって定義されたロケーションにおいて見えるようにすること)を含むことができる。
[0027] 図3は、図1の環境100内のヘッドマウントディスプレイデバイス106のユーザー102の例示的な視野300を示す。例えば、視野300は、ヘッドマウントディスプレイデバイス106のシースルーディスプレイを通じて視認可能な環境100の一部を表すことができる。視野内で、ユーザーは、注視線302によって示される方向を注視している場合があり、この方向は注視対象304に対応することができる。例えば、ユーザーがアプリケーションの起動を意図する場合、注視対象304に位置する空の壁を選択することができる。
[0028] 図4A〜図4Bは、ヘッドマウントディスプレイ(例えば、図1および図3におけるヘッドマウントディスプレイデバイス106のユーザー102)のシースルーディスプレイを通じた視野の例示的なタイムライン400を示す。例えば、時点T1における視野内で、図1のコンピューティングデバイス104、ディスプレイデバイス108およびセンサーデバイス110等の、環境100内の現実世界のオブジェクトは、通知アイコン402(例えば、天気および新たなメッセージのインジケーションを示す)等の表示された拡張要素と並行して視認可能とすることができる。注視線404によって表されるように、ユーザーの注視は、現実世界の環境における壁面に対応する注視対象406に向かって方向付けることができる。
[0029] 時点T2の前に、注視対象406でアプリケーションランチャーを表示する意図を示すユーザートリガーが認識される。例えば、ユーザートリガーは、時点T1と時点T2との間のある時点において実行および/または認識される場合がある。したがって、アプリケーションランチャーの位置プレビュー408は、現実世界の環境に対する拡張として表示することができ、それによって、プレビューが注視対象にセンタリングされる。
[0030] 時点T3の前に、位置プレビューがアプリケーションランチャーの意図されるロケーションを表すことの確認を示す確認入力が認識される。例えば、確認入力は、時点T2と時点T3との間のある時点において実行および/または認識される場合がある。したがって、位置プレビュー408は、アプリケーションランチャー410と置き換えられる。アプリケーションランチャー410は、複数のアイコン412を含み、各アイコンは、起動のために選択可能な異なるアプリケーションを識別する。アプリケーションランチャーは、位置プレビューによって以前に占有されていた同じ空間を占有する。
[0031] 時点T4において、注視線414によって示されるユーザーの注視は、アイコン412のうちの選択された1つ(例えば、アイコン412a)に向けられる。アプリケーションのユーザー選択は、時点T4と時点T5との間のある時点において実行される。したがって、時点T5において、アプリケーションランチャーは、選択されたアプリケーション(例えば、選択されたアプリケーションに関連付けられたユーザーインターフェースウィンドウ416)と置き換えられる。示される例において、選択されたアプリケーションは、アプリケーションランチャーと同じ境界内に提示されるが、他の構成が提供されてもよい。例えば、ユーザーインターフェースウィンドウ416の中心は、アプリケーションランチャー410の中心と同じロケーションに位置決めすることができるが、起動されるアプリケーションは、アプリケーションランチャーと異なるサイズ、向きおよび/または形状を有してもよい。
[0032] 図5は、図1の環境100内のユーザー102が、ヘッドマウントディスプレイデバイス106および関連付けられたシースルーディスプレイではなく、コンピューティングデバイス104およびディスプレイデバイス108とインタラクトする例示的なシナリオを示す。図示のように、注視線502によって表されるユーザー102の注視とユーザートリガーを組み合わせることにより、コンピューティングシステム104に、ディスプレイデバイス108上にアプリケーションランチャー504を表示させることができる。例えば、センサーデバイス110は、ユーザー102の眼を撮像し、画像をコンピューティングデバイス104に送信することができる。コンピューティングデバイス104は、画像を解析し、および/または画像を遠隔処理/解析のためにネットワークを介してリモートサービス(例えば、クラウドコンピューティングデバイス)に送信することができる。画像を解析するとき、コンピューティングデバイスは、視線方向を特定し、視線方向をディスプレイデバイス108上のロケーションにマッピングして、注視対象を特定することができる。ユーザートリガーおよび/または位置プレビューの確認に応答して、コンピューティングデバイス104は、ディスプレイデバイスに、注視対象のロケーションにアプリケーションランチャーを表示する(例えば、アプリケーションランチャーを注視対象にセンタリングする)ように命令することができる。
[0033] 上記で説明した方法およびシステムは、コンピューティングデバイスおよび/またはヘッドマウントディスプレイデバイスのユーザーのために、シームレスなアプリケーション起動体験を提供することができる。アプリケーションランチャー(およびその後選択されるアプリケーション)がユーザーの選択のロケーションに位置決めされることを可能にすることによって、ユーザーは、新たなアプリケーションが、拡張現実環境における既存の表示オブジェクトまたは現実世界のオブジェクトからの干渉の厄介な再配置を行うことなく起動可能であることを確実にすることができる。
[0034] いくつかの実施形態では、本明細書において説明される方法およびプロセスは、1つまたは複数のコンピューティングデバイスのコンピューティングシステムに結びつけることができる。特に、そのような方法およびプロセスは、コンピューターアプリケーションプログラムまたはサービス、アプリケーションプログラミングインターフェース(API)、ライブラリおよび/または他のコンピュータープログラム製品として実装することができる。
[0035] 図6は、上記で説明した方法およびプロセスのうちの1つまたは複数を実行することができるコンピューティングシステム600の非限定的な実施形態を概略的に示す。コンピューティングシステム600は、簡略化された形式で示される。コンピューティングシステム600は、1つまたは複数のヘッドマウントディスプレイデバイス、装着可能なデバイス、パーソナルコンピューター、サーバーコンピューター、タブレットコンピューター、ホームエンタテイメントコンピューター、ネットワークコンピューティングデバイス、ゲーミング機器、モバイルコンピューティングデバイス、モバイル通信デバイス(例えば、スマートフォン)および/または他のコンピューティングデバイスの形態をとることができる。例えば、コンピューティングシステム600は、図1、図3および図5のコンピューティングデバイス104および/またはヘッドマウントディスプレイデバイス106を含み、および/またはこれらに含めることができる。
[0036] コンピューティングシステム600は、論理マシン602およびストレージマシン604を含む。コンピューティングシステム600は、任意選択で、表示サブシステム606、入力サブシステム608、通信サブシステム610、および/または図6に示されていない他のコンポーネントを含んでもよい。
[0037] 論理マシン602は、命令を実行するように構成された1つまたは複数の物理的デバイスを含む。例えば、論理マシンは、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造または他の論理構造体の一部である命令を実行するように構成することができる。そのような命令は、タスクを実行し、データタイプを実装し、1つまたは複数のコンポーネントの状態を変形し、技術的効果を達成し、または他の形で所望の結果に到達するように実施することができる。
[0038] 論理マシンは、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。加えてまたは代替的に、論理マシンは、ハードウェア命令またはファームウェア命令を実行するように構成された1つまたは複数のハードウェア論理マシンまたはファームウェア論理マシンを含むことができる。論理マシンのプロセッサは、シングルコアまたはマルチコアとすることができ、これらの上で実行される命令は、直列、並列、および/または分散処理のために構成することができる。論理マシンの個々のコンポーネントは、任意選択で、2つ以上の別個のデバイス間で分散させることができ、これらは、遠隔に位置し、および/または協調処理のために構成することができる。論理マシンの態様は、クラウドコンピューティング構成において構成される、リモートでアクセス可能なネットワーク化されたコンピューティングデバイスによって仮想化および実行することができる。
[0039] ストレージマシン604は、本明細書に記載の方法およびプロセスを実施するように関連論理マシンによって実行可能な命令を保持するように構成された、1つまたは複数の物理的デバイスを含む。そのような方法およびプロセスが実施されるとき、ストレージマシン604の状態は、例えば、異なるデータを保持するように変換することができる。
[0040] ストレージマシン604は、リムーバブルデバイスおよび/または内蔵デバイスを含むことができる。ストレージマシン604は、中でも、光メモリ(例えば、CD、DVD、HD-DVD、ブルーレイディスク等)、半導体メモリ(例えば、RAM、EPROM、EEPROM等)および/または磁気メモリ(例えば、ハードディスクドライブ、フロッピーディスクドライブ、テープドライブ、MRAM等)を含むことができる。ストレージマシン604は、揮発性デバイス、不揮発性デバイス、ダイナミックデバイス、スタティックデバイス、リード/ライトデバイス、リードオンリーデバイス、ランダムアクセスデバイス、連続アクセスデバイス、ロケーションアドレス指定可能デバイス、ファイルアドレス指定可能デバイス、および/またはコンテンツアドレス指定可能デバイスを含むことができる。
[0041] ストレージマシン604は、1つまたは複数の物理的デバイスを含むことができることが理解されよう。一方、本明細書に記載の命令の態様は、代替的に、有限の持続時間にわたって物理的デバイスによって保持されない通信媒体(例えば、電磁信号、光信号等)によって伝播することができる。
[0042] 論理マシン602およびデータストレージマシン604の態様は、共に、1つまたは複数のハードウェア論理コンポーネントに統合することができる。そのようなハードウェア論理コンポーネントは、例えば、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラムおよび特定用途向け集積回路(PASIC/ASIC)、特定プログラムおよび特定用途向け標準製品(PSSP/ASSP)、システムオンチップ(SOC)、および複雑なプログラム可能論理デバイス(CPLD)を含むことができる。
[0043] 「モジュール」、「プログラム」および「エンジン」という用語は、特定の機能を実行するように実施されるコンピューターシステム600の態様を説明するために用いることができる。いくつかの場合、モジュール、プログラムまたはエンジンは、ストレージマシン604によって保持される命令を実行する論理マシン602を介してインスタンス化することができる。異なるモジュール、プログラムおよび/またはエンジンは、同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、機能等からインスタンス化することができることが理解されよう。同様に、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、機能等によって同じモジュール、プログラムおよび/またはエンジンをインスタンス化することができる。「モジュール」、「プログラム」および「エンジン」という用語は、個々の実行可能なファイル、データファイル、ライブラリ、ドライバー、スクリプト、データベースレコード等、またはそれらのグループを包含することができる。
[0044] 「サービス」という用語は、本明細書において用いられるとき、複数のユーザーセッションにわたって実行可能なアプリケーションプログラムであることが理解されよう。サービスは、1つまたは複数のシステムコンポーネント、プログラム、および/または他のサービスに利用可能であり得る。いくつかの実装態様で、サービスは、1つまたは複数のサーバーコンピューティングデバイスで実行することができる。
[0045] 表示サブシステム606は、含まれるとき、ストレージマシン604によって保持されるデータの視覚的表現を提示するために用いることができる。この視覚的表現は、グラフィカルユーザーインターフェース(GUI)の形態をとることができる。本明細書に記載の方法およびプロセスが、ストレージマシンによって保持されたデータを変更し、それによって、ストレージマシンの状態を変換するとき、表示サブシステム606の状態も同様に、基礎となるデータの変更を視覚的に表すように変換することができる。例えば、図1のヘッドマウントディスプレイデバイス106の論理マシンからの命令に応答して、シースルーディスプレイの状態は、ユーザートリガーの認識に応答してこのディスプレイ上でアプリケーションランチャーを表示するように変換することができる。表示サブシステム606は、実質的に任意のタイプの技術を使用する1つまたは複数のディスプレイデバイスを含むことができる。そのようなディスプレイデバイスは、共用エンクロージャー内の論理マシン602および/またはストレージマシン604と組み合わせることができ、またはそのようなディスプレイデバイスは、周辺ディスプレイデバイスであってもよい。
[0046] 入力サブシステム608は、含まれるとき、キーボード、マウス、タッチ画面、またはゲームコントローラー等の1つまたは複数のユーザー入力デバイスを備えるかまたはそれとインターフェースすることができる。いくつかの実施形態で、入力サブシステムは、選択された自然なユーザー入力(NUI)構成部品を備えるか、またはそれとインターフェースすることができる。そのような構成部品は、一体化されてもよく、または周辺装置であってもよく、入力アクションの変換および/または処理は、ボード上でまたはボード外で処理され得る。例示的なNUI構成部品は、発話および/または音声認識のためのマイクロフォン、マシンビジョンおよび/またはジェスチャー認識のための赤外線、色、立体、および/または深度カメラ、運動検出および/または意図認識のための頭部トラッカー、アイトラッカー、加速度計、および/またはジャイロスコープ、ならびに脳活動を評価するための電場感知構成部品を含み得る。
[0047] 通信サブシステム610は、含まれるとき、コンピューティングシステム600を1つまたは複数の他のコンピューティングデバイスと通信可能に結合するように構成することができる。通信サブシステム610は、1つまたは複数の異なる通信プロトコルと互換性のある有線および/または無線通信デバイスを含み得る。非限定的例として、通信サブシステムは、無線電話網、または有線もしくは無線のローカルもしくはワイドエリアネットワークを介する通信のために構成することができる。いくつかの実施形態で、通信サブシステムは、コンピューティングシステム600がインターネット等のネットワークを介して、他のデバイスに、および/または他のデバイスから、メッセージを送信および/または受信できるようにすることができる。
[0048] 図7は、シースルーディスプレイ702を有する装着可能な眼鏡の形態の図1および図3のHMDデバイス106の非限定的な例を示す。HMDデバイスは、透明、半透明および/または不透明なディスプレイが、見る人の片眼または両眼の前に支持される任意の他の適切な形態をとることができるが理解されよう。更に、本明細書に記載の実施形態は、限定ではないが、モバイルコンピューティングデバイス、ラップトップコンピューター、デスクトップコンピューター、タブレットコンピューター、他の装着可能なコンピューターを含む任意の他の適切なコンピューティングデバイスと共に用いられてもよい。
[0049] HMDデバイス106は、シースルーディスプレイ702およびコントローラー704を備える。シースルーディスプレイ702は、ホログラフィックオブジェクト等の画像がHMDデバイスの装着者の眼に送達されることを可能にすることができる。シースルーディスプレイ702は、透明なディスプレイを通じて物理環境を見ている装着者に対し現実世界の物理環境の概観を視覚的に拡張するように構成することができる。1つの例では、ディスプレイは、グラフィカルユーザーインターフェース上に1つまたは複数のUIオブジェクトを表示するように構成することができる。いくつかの実施形態では、グラフィカルユーザーインターフェース上に提示されるUIオブジェクトは、現実世界の環境の前に重ね合わされた仮想オブジェクトとすることができる。同様に、いくつかの実施形態では、グラフィカルユーザーインターフェース上に提示されるUIオブジェクトは、シースルーディスプレイ702を通して見た現実世界の環境の現実世界のオブジェクトの要素を組み込むことができる。他の例では、ディスプレイは、ゲーム、ビデオまたは他のビジュアルコンテンツに関連付けられた仮想オブジェクト等の1つまたは複数の他のグラフィカルオブジェクトを表示するように構成することができる。
[0050] 任意の適切なメカニズムを用いてシースルーディスプレイ702を介して画像を表示することができる。例えば、シースルーディスプレイ702は、レンズ706内に位置する画像生成要素(例えば、シースルー有機発光ダイオード(OLED)ディスプレイ等)を備えることができる。別の例として、シースルーディスプレイ702は、HMDデバイス106のフレーム内に位置するディスプレイデバイス(例えば、液晶オンシリコン(LCOS)デバイスまたはOLEDマイクロディスプレイ等)を備えることができる。この例において、レンズ706は、ディスプレイデバイスから装着者の眼に光を送達するためのライトガイドとしての役割を果たすか、またはこのライトガイドを他の形で備えることができる。そのようなライトガイドは、装着者が物理環境内の物理的オブジェクトを見ることも可能にしながら、装着者が見ている物理的環境内に位置する3Dホログラフィック画像を装着者が知覚することを可能にすることができ、これにより混合リアリティ環境を生成する。
[0051] HMDデバイス106は、情報をコントローラー704に提供するための様々なセンサーおよび関連システムも備えることができる。そのようなセンサーは、限定ではないが、1つまたは複数の内側を向いたイメージセンサー708aおよび708b、1つまたは複数の外側向いたイメージセンサー710、慣性計測装置(IMU)712、および1つまたは複数のマイクロフォン720を含むことができる。1つまたは複数の内側を向いたイメージセンサー708a、708bは、装着者の眼からの視線追跡データの形態で画像データを取得するように構成することができる(例えば、センサー708aは、装着者の眼のうちの一方の画像データを取得することができ、センサー708bは装着者の眼のうちの他方の画像データを取得することができる)。HMDデバイスは、イメージセンサー708a、708bから受信した情報に基づいて、任意の適切な方式で、装着者の各眼の視線方向を特定するように構成することができる。例えば、赤外線光源等の1つまたは複数の光源714a、714bは、装着者の各眼の角膜から閃光を反射させるように構成することができる。次に、1つまたは複数のイメージセンサー708a、708bは、装着者の眼の画像を捕捉するように構成することができる。イメージセンサー708a、708bから収集した画像データから特定される閃光および瞳孔の画像をコントローラー704によって用いて、各眼の光軸を特定することができる。この情報を用いて、コントローラー704は、装着者が注視している方向を特定するように構成することができる。コントローラー704は、装着者が注視している物理的オブジェクトおよび/または仮想オブジェクトの識別情報を更に特定するように構成することができる。
[0052] 1つまたは複数の外側を向いたイメージセンサー710は、HMDデバイス106が位置する物理的環境から物理的環境データを受信するように構成することができる。外側を向いたイメージセンサー710からのデータを用いて、ジェスチャーベースの入力、または視野内の装着者によってもしくは人物もしくは物理的オブジェクトによって行われる他の動き等の、ディスプレイ702の視野内の動きを検出することができる。1つの例において、外側を向いたイメージセンサー710からのデータを用いて、ディスプレイデバイス上に表示されるUIオブジェクトの選択を示すジェスチャー(例えば、指でつねる、拳を握る等)等のHMDデバイスの装着者によって行われる選択入力を検出することができる。外側を向いたセンサーからのデータを用いて、現実世界の環境におけるHMDデバイス106の位置/運動追跡を可能にする、方向/ロケーションおよび向きデータを(例えば、撮像環境特徴から)特定することもできる。
[0053] IMU712は、HMDデバイス106の位置および/または向きデータをコントローラー704に提供するように構成することができる。1つの実施形態において、IMU712は、3軸または3自由度の位置センサーシステムとして構成することができる。この例示的な位置センサーシステムは、例えば、3つの直交軸(例えば、x、y、z)の周りの3D空間内のHMDデバイス106の向きの変化(例えば、ロール、ピッチ、ヨー)を示すかまたは測定する3つのジャイロスコープを備えることができる。IMUのセンサー信号から導出される向きを用いて、シースルーディスプレイを介して、3自由度の1つまたは複数の仮想UIオブジェクトを表示することができる。
[0054] 別の例において、IMU712は、6軸または6自由度の位置センサーシステムとして構成することができる。そのような構成は、3つの直交軸に沿ったHMDデバイス106のロケーションの変化、および3つの直交軸の周りのデバイスの向きの変化を示すかまたは測定するための3つの加速度計および3つのジャイロスコープを含むことができる。いくつかの実施形態では、外側を向いたイメージセンサー710およびIMU712からの位置および向きのデータを併せて用いて、HMDデバイス106の位置および向きを特定することができる。
[0055] HMDデバイス106は、GPSまたは他のグローバルナビゲーションシステム等の他の適切な測位技法もサポートすることができる。更に、位置センサーシステムの特定の例が説明されたが、任意の他の適切な位置センサーシステムを用いてもよいことが理解されよう。例えば、限定ではないが、任意の数のジャイロスコープ、加速度計、慣性計測装置、GPSデバイス、バロメーター、磁気計、カメラ(例えば、可視光カメラ、赤外光カメラ、飛行時間深度カメラ、構造化光深度カメラ等)、通信デバイス(例えば、WIFIアンテナ/インターフェース)等を含む、装着者上に取り付けられたおよび/または装着者の外部のセンサーの任意の組み合わせからのセンサー情報に基づいて、頭部の姿勢および/または動きのデータを特定することができる。
[0056] 図7を継続すると、コントローラー704は、1つまたは複数の内側を向いたイメージセンサー708a、708bによって検出される情報に基づいて経時的に複数の注視サンプルを記録するように構成することができる。注視サンプルごとに、視線追跡情報、およびいくつかの実施形態では、(イメージセンサー710および/またはIMU712からの)頭部追跡情報を用いて、その注視サンプルの起点および方向ベクトルを推定し、注視がシースルーディスプレイと交わる推定ロケーションを生成することができる。注視サンプルを特定するために用いられる視線追跡情報および頭部追跡情報の例は、注視方向、頭部の向き、注視速度、注視加速度、注視方向の角度変化、および/または任意の他の適切な追跡情報を含むことができる。いくつかの実施形態では、注視追跡は、HMDデバイス106の装着者の両眼について独立して記録することができる。
[0057] 上述したように、HMDデバイス106は、マイクロフォン720等の、オーディオデータを捕捉する1つまたは複数のマイクロフォンも備えることができる。いくつかの例では、1つまたは複数のマイクロフォン720は、2つ以上のマイクロフォンを含むマイクロフォンアレイを含むことができる。例えば、マイクロフォンアレイは、2つが右レンズの上に位置決めされ、2つがHMDデバイスの左レンズの上に位置決めされた、4つのマイクロフォンを含むことができる。更に、オーディオ出力を、スピーカー722等の1つまたは複数のスピーカーを介して装着者に提示することができる。いくつかの実施形態では、マイクロフォンシステムは、シースルーディスプレイ上に表示されたグラフィカルユーザーインターフェース上に提示されるUIオブジェクトの選択を示すオーディオフィードバックを提供するように構成することができる。
[0058] コントローラー704は、様々なセンサーおよびHMDデバイスのディスプレイと通信する、図6に関して上記でより詳細に論考された、論理マシンおよびストレージマシンを備えることができる。1つの例において、ストレージマシンは、本明細書で説明するように、1つまたは複数の外部スピーカーに、表示された仮想オブジェクトのためのサウンドを提供するように論理マシンによって実行可能な命令を含むことができる。
[0059] 別の例は、視線追跡カメラを介して注視対象を認識することと、ユーザートリガーに応答して、ディスプレイを介して注視対象においてアプリケーションランチャーを表示することであって、アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、アプリケーションランチャーを、注視対象において複数のアプリケーションのうちの選択された1つと置き換えることと、を含む方法を提供する。加えてまたは代替的に、そのような例において、アプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることは、注視対象において、複数のアプリケーションのうちの選択された1つのグラフィカルユーザーインターフェース要素を表示することを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、視線追跡カメラおよび別の撮像デバイスのうちの1つまたは複数を介して認識されたジェスチャーを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、マイクロフォンを介して認識される音声コマンドを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは持続的な注視を含むことができ、加えてまたは代替的に、本方法は、視線追跡カメラを介して、ユーザーの注視がトリガー閾値よりも大きい持続時間にわたって注視対象に向けられていると認識することに応答してユーザートリガーを認識することを更に含むことができる。加えてまたは代替的に、そのような例において、本方法は、アプリケーションランチャーを表示する前に、注視対象においてアプリケーションランチャーの位置プレビューを表示することを更に含むことができる。加えてまたは代替的に、そのような例において、本方法は、ディスプレイを介して、確認入力に応答してアプリケーションランチャーの位置プレビューをアプリケーションランチャーと置き換えることを更に含むことができる。加えてまたは代替的に、そのような例において、ディスプレイはヘッドマウントディスプレイデバイスのシースルーディスプレイを含むことができ、加えてまたは代替的に、視線追跡カメラはヘッドマウントディスプレイデバイスに一体化することができる。加えてまたは代替的に、そのような例において、ディスプレイはヘッドマウントディスプレイデバイスのシースルーディスプレイを含むことができ、加えてまたは代替的に、ユーザートリガーはヘッドマウントディスプレイデバイスの遠隔にある撮像デバイスによって捕捉された画像の解析に基づいて認識することができる。上記で説明した例のうちの任意のものまたは全てを、様々な実施態様において任意の適切な方式で組み合わせることができる。
[0060] 別の例は、視線追跡カメラと、シースルーディスプレイと、論理マシンと、論理マシンによって実行可能な命令を保持するストレージマシンであって、これらの命令は、視線追跡カメラを介して注視対象を認識することと、ユーザートリガーに応答して、シースルーディスプレイを介して注視対象においてアプリケーションランチャーを表示することであって、アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、アプリケーションランチャーを、注視対象において複数のアプリケーションのうちの選択された1つと置き換えることとを行わせる命令である、ストレージマシンとを備えるヘッドマウントディスプレイデバイスを提供する。加えてまたは代替的に、そのような例において、ヘッドマウントディスプレイデバイスは入力サブシステムを更に備えることができ、加えてまたは代替的に、ユーザートリガーは、この入力サブシステムを介して検出することができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、ヘッドマウントディスプレイデバイスおよびヘッドマウントディスプレイデバイスの遠隔にあるカメラのうちの1つまたは複数を介して認識されるジェスチャーを含むことができる。加えてまたは代替的に、そのような例において、ヘッドマウントディスプレイデバイスはマイクロフォンを更に備えることができ、加えてまたは代替的に、ユーザートリガーは、マイクロフォンを介して認識された音声コマンドを含むことができる。加えてまたは代替的に、そのような例において、ユーザートリガーは持続的な注視を含むことができ、加えてまたは代替的に、命令は、視線追跡カメラを介して、注視対象がトリガー閾値よりも大きい持続時間にわたって維持されていると判定することに応答して持続的な注視を認識するように更に実行可能とすることができる。加えてまたは代替的に、そのような例において、アプリケーションランチャーを複数のアプリケーションのうちの選択された1つと置き換えることは、シースルーディスプレイを介して、注視対象において、複数のアプリケーションのうちの選択された1つのグラフィカルユーザーインターフェース要素を表示することを含むことができる。加えてまたは代替的に、そのような例において、命令は、アプリケーションランチャーを表示する前に、シースルーディスプレイを介して、注視対象においてアプリケーションランチャーの位置プレビューを表示するように更に実行可能とすることができる。加えてまたは代替的に、そのような例において、命令は、シースルーディスプレイを介して、確認入力に応答してアプリケーションランチャーの位置プレビューをアプリケーションランチャーと置き換えるように更に実行可能とすることができる。上記で説明した例のうちの任意のものまたは全てを、様々な実施態様において任意の適切な方式で組み合わせることができる。
[0061] 別の例は、視線追跡カメラと、入力サブシステムと、シースルーディスプレイと、論理マシンと、論理マシンによって実行可能な命令を保持するストレージマシンであって、これらの命令は、視線追跡カメラを介して注視対象を認識することと、入力サブシステムを介して検出されたユーザートリガーに応答して、シースルーディスプレイを介して注視対象においてアプリケーションランチャーの位置プレビューを表示することと、入力サブシステムを介して検出された確認入力に応答して、シースルーディスプレイを介して、アプリケーションランチャーの位置プレビューを、起動のために選択可能な複数のアプリケーションを提示するアプリケーションランチャーと置き換えることと、複数のアプリケーションのうちの1つのユーザー選択を認識することと、ディスプレイを介して、アプリケーションランチャーを、注視対象において複数のアプリケーションのうちの選択された1つを置き換えることとを行わせる命令である、ストレージマシンとを備えるヘッドマウントディスプレイデバイスを提供する。加えてまたは代替的に、そのような例において、ユーザートリガーは、持続的な注視を含むことができ、加えてまたは代替的に、命令は、視線追跡カメラを介して、注視対象がトリガー閾値よりも大きい持続時間にわたって維持されていると判定することに応答して持続的な注視を認識するように更に実行可能とすることができる。加えてまたは代替的に、そのような例において、ユーザートリガーは、入力サブシステムを介して認識されたジェスチャーおよび音声コマンドのうちの1つまたは複数を含むことができる。上記で説明した例のうちの任意のものまたは全てを、様々な実施態様において任意の適切な方式で組み合わせることができる。
[0062] 本明細書に記載の構成および/または手法は、実際は本質的に例示であり、多数の変形形態が可能であるので、これらの特定の実施形態または例は限定的な意味で解釈さられるべきではないことが理解されよう。本明細書に記載の特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つまたは複数を表すことができる。したがって、図示および/または記載された様々な動作は、図示および/または記載された順序で、他の順序で、並行して、または省略して、実行することができる。同様に、前述のプロセスの順番は、変更することができる。
[0063] 本開示の対象は、様々なプロセス、システムおよび構成の全ての新しいおよび非自明の組み合わせおよび部分的組み合わせと、本明細書で開示される他の特徴、機能、動作、および/または特性、ならびに、それらの任意のおよび全ての均等物を含む。

Claims (15)

  1. 視線追跡カメラを介して注視対象を認識することと、
    ユーザートリガーに応答して、ディスプレイを介して前記注視対象においてアプリケーションランチャーを表示することであって、前記アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、
    前記複数のアプリケーションのうちの1つのユーザー選択を認識することと、
    前記ディスプレイを介して、前記注視対象において前記アプリケーションランチャーを前記複数のアプリケーションのうちの前記選択された1つと置き換えることと、
    を含む、方法。
  2. 前記アプリケーションランチャーを前記複数のアプリケーションのうちの前記選択された1つと置き換えることは、前記注視対象において、前記複数のアプリケーションのうちの前記選択された1つのグラフィカルユーザーインターフェース要素を表示することを含む、請求項1に記載の方法。
  3. 前記ユーザートリガーは、前記視線追跡カメラおよび別の撮像デバイスのうちの1つまたは複数を介して認識されたジェスチャーを含む、請求項1に記載の方法。
  4. 前記ユーザートリガーは、マイクロフォンを介して認識される音声コマンドを含む、請求項1に記載の方法。
  5. 前記ユーザートリガーは持続的な注視を含み、前記方法は、前記視線追跡カメラを介して、前記ユーザーの注視がトリガー閾値よりも大きい持続時間にわたって前記注視対象に向けられていると認識することに応答して前記ユーザートリガーを認識することを更に含む、請求項1に記載の方法。
  6. 前記アプリケーションランチャーを表示する前に、前記注視対象において前記アプリケーションランチャーの位置プレビューを表示することを更に含む、請求項1に記載の方法。
  7. 前記ディスプレイを介して、確認入力に応答して前記アプリケーションランチャーの前記位置プレビューを前記アプリケーションランチャーと置き換えることを更に含む、請求項6に記載の方法。
  8. 前記ディスプレイは、ヘッドマウントディスプレイデバイスのシースルーディスプレイであり、前記視線追跡カメラは、前記ヘッドマウントディスプレイデバイスに一体化される、請求項1に記載の方法。
  9. 前記ディスプレイは、ヘッドマウントディスプレイデバイスのシースルーディスプレイであり、前記ユーザートリガーは、前記ヘッドマウントディスプレイデバイスの遠隔にある撮像デバイスによって捕捉された画像の解析に基づいて認識される、請求項1に記載の方法。
  10. ヘッドマウントディスプレイデバイスであって、
    視線追跡カメラと、
    シースルーディスプレイと、
    論理マシンと、
    前記論理マシンによって実行可能な命令を保持するストレージマシンであって、前記命令は、
    前記視線追跡カメラを介して注視対象を認識することと、
    ユーザートリガーに応答して、前記シースルーディスプレイを介して前記注視対象においてアプリケーションランチャーを表示することであって、前記アプリケーションランチャーは、起動のために選択可能な複数のアプリケーションを提示する、表示することと、
    前記複数のアプリケーションのうちの1つのユーザー選択を認識することと、
    前記ディスプレイを介して、前記注視対象において前記アプリケーションランチャーを前記複数のアプリケーションのうちの前記選択された1つと置き換えることと、
    を行わせる、ストレージマシンと、
    を備える、ヘッドマウントディスプレイデバイス。
  11. 前記ユーザートリガーは、前記ヘッドマウントディスプレイデバイス、および前記ヘッドマウントディスプレイデバイスの遠隔にあるカメラのうちの1つまたは複数を介して認識されるジェスチャーを含む、請求項10に記載のヘッドマウントディスプレイデバイス。
  12. マイクロフォンを更に備え、前記ユーザートリガーは、前記マイクロフォンを介して認識された音声コマンドを含む、請求項10に記載のヘッドマウントディスプレイデバイス。
  13. 前記ユーザートリガーは持続的な注視を含むことができ、前記命令は、前記視線追跡カメラを介して、前記注視対象がトリガー閾値よりも大きい持続時間にわたって維持されていると判定することに応答して前記持続的な注視を認識するように更に実行可能である、請求項10に記載のヘッドマウントディスプレイデバイス。
  14. 前記命令は、前記アプリケーションランチャーを表示する前に、前記シースルーディスプレイを介して、前記注視対象において前記アプリケーションランチャーの位置プレビューを表示するように更に実行可能である、請求項10に記載のヘッドマウントディスプレイデバイス。
  15. 前記命令は、前記シースルーディスプレイを介して、確認入力に応答して前記アプリケーションランチャーの前記位置プレビューを前記アプリケーションランチャーと置き換えるように更に実行可能である、請求項14に記載のヘッドマウントディスプレイデバイス。
JP2017528540A 2014-12-03 2015-11-23 注視対象アプリケーションランチャー Pending JP2017538218A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/559,841 US10248192B2 (en) 2014-12-03 2014-12-03 Gaze target application launcher
US14/559,841 2014-12-03
PCT/US2015/062051 WO2016089638A1 (en) 2014-12-03 2015-11-23 Gaze target application launcher

Publications (1)

Publication Number Publication Date
JP2017538218A true JP2017538218A (ja) 2017-12-21

Family

ID=54784032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017528540A Pending JP2017538218A (ja) 2014-12-03 2015-11-23 注視対象アプリケーションランチャー

Country Status (6)

Country Link
US (1) US10248192B2 (ja)
EP (1) EP3227762A1 (ja)
JP (1) JP2017538218A (ja)
KR (1) KR102473259B1 (ja)
CN (1) CN107003738B (ja)
WO (1) WO2016089638A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052917A (ja) * 2018-09-28 2020-04-02 株式会社リコー 表示端末、表示制御方法およびプログラム
DE102020000390A1 (de) 2019-01-29 2020-07-30 Fanuc Corporation Robotersystem
US11966518B2 (en) 2022-09-19 2024-04-23 Google Llc Assistant device arbitration using wearable device data

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
EP2990920B1 (en) * 2013-04-22 2019-04-03 Fujitsu Limited Information terminal control method
JP2016170528A (ja) * 2015-03-11 2016-09-23 株式会社リコー 頭部装着型表示装置及び頭部装着型表示装置における外部機器との接続方法
US9472196B1 (en) * 2015-04-22 2016-10-18 Google Inc. Developer voice actions system
KR102110208B1 (ko) * 2015-05-08 2020-05-13 엘지전자 주식회사 안경형 단말기 및 이의 제어방법
KR20170130582A (ko) * 2015-08-04 2017-11-28 구글 엘엘씨 가상현실에서 시선 인터렉션을 위한 호버 행동
JP6684559B2 (ja) * 2015-09-16 2020-04-22 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
US10692113B2 (en) * 2016-06-21 2020-06-23 Htc Corporation Method for providing customized information through advertising in simulation environment, and associated simulation system
CN107801413B (zh) * 2016-06-28 2020-01-31 华为技术有限公司 对电子设备进行控制的终端及其处理方法
CN106155326A (zh) * 2016-07-26 2016-11-23 北京小米移动软件有限公司 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备
US20180077430A1 (en) * 2016-09-09 2018-03-15 Barrie Hansen Cloned Video Streaming
CN106200679B (zh) * 2016-09-21 2019-01-29 中国人民解放军国防科学技术大学 基于多模态自然交互的单操作员多无人机混合主动控制方法
US20180150204A1 (en) * 2016-11-30 2018-05-31 Google Inc. Switching of active objects in an augmented and/or virtual reality environment
KR20180071092A (ko) 2016-12-19 2018-06-27 삼성전자주식회사 사용자의 시선 및 입력에 기반하여 제어되는 전자 장치, 모바일 전자 장치 및 디스플레이 장치
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US10365493B2 (en) 2016-12-23 2019-07-30 Realwear, Incorporated Modular components for a head-mounted display
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
GB201702939D0 (en) * 2017-02-23 2017-04-12 Rotem Gal Systems, methods and computer readable storage media for conditioned accelerometer trigger in man-machine interface for virtual reality glasses
JP6610602B2 (ja) * 2017-04-07 2019-11-27 京セラドキュメントソリューションズ株式会社 表示入力装置
JP6774367B2 (ja) * 2017-04-11 2020-10-21 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
US10264380B2 (en) * 2017-05-09 2019-04-16 Microsoft Technology Licensing, Llc Spatial audio for three-dimensional data sets
US10747386B2 (en) 2017-06-01 2020-08-18 Samsung Electronics Co., Ltd. Systems and methods for window control in virtual reality environment
US10325409B2 (en) * 2017-06-16 2019-06-18 Microsoft Technology Licensing, Llc Object holographic augmentation
JP6852612B2 (ja) * 2017-07-26 2021-03-31 富士通株式会社 表示プログラム、情報処理装置、及び表示方法
PL3654148T3 (pl) * 2017-10-16 2023-11-06 Tobii Dynavox Ab Ulepszony dostęp do urządzeń obliczeniowych za pomocą śledzenia wzroku
US10776475B2 (en) * 2017-11-13 2020-09-15 International Business Machines Corporation Secure password input in electronic devices
CN107885016B (zh) * 2017-11-30 2021-06-01 北京小米移动软件有限公司 全息投影方法及装置
EP3520868A1 (en) 2018-02-06 2019-08-07 Gree, Inc. Game processing system, method of processing game, and program for processing game
JP6908573B2 (ja) 2018-02-06 2021-07-28 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
US10981067B2 (en) 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
CN116328317A (zh) 2018-02-06 2023-06-27 日本聚逸株式会社 应用处理系统、应用处理方法以及应用处理程序
US11157075B2 (en) * 2018-05-01 2021-10-26 Dell Products, L.P. Gaze-activated voice services for interactive workspaces
DK180639B1 (en) * 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
AU2019293961A1 (en) * 2018-06-26 2020-10-22 Alcon Inc. Binocular system for entering commands
CN109683705A (zh) * 2018-11-30 2019-04-26 北京七鑫易维信息技术有限公司 眼球注视控制交互控件的方法、装置和系统
AT522012A1 (de) * 2018-12-19 2020-07-15 Viewpointsystem Gmbh Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer
US10789952B2 (en) * 2018-12-20 2020-09-29 Microsoft Technology Licensing, Llc Voice command execution from auxiliary input
KR20200091988A (ko) * 2019-01-23 2020-08-03 삼성전자주식회사 장치를 제어하기 위한 방법 및 그 전자 장치
CN110174937A (zh) * 2019-04-09 2019-08-27 北京七鑫易维信息技术有限公司 注视信息控制操作的实现方法及装置
CH716053A1 (de) * 2019-04-10 2020-10-15 Smart Secure Id Ag Biometrische Bildungsvorrichtung und biometrisches Bildungsverfahren zum Erfassen von Bilddaten eines Körperteils einer Person mit Benutzerführung.
KR102570009B1 (ko) * 2019-07-31 2023-08-23 삼성전자주식회사 Ar 객체 생성 방법 및 전자 장치
US11269407B2 (en) * 2020-01-30 2022-03-08 Dell Products L.P. System and method of determining attributes of a workspace configuration based on eye gaze or head pose
US11455744B2 (en) 2020-02-07 2022-09-27 Toyota Research Institute, Inc. Systems and methods for determining a viewing direction of a user
US11281291B1 (en) 2020-10-20 2022-03-22 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11320903B1 (en) 2020-10-20 2022-05-03 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11747896B2 (en) 2020-10-20 2023-09-05 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11609629B2 (en) 2020-10-20 2023-03-21 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11392198B2 (en) 2020-10-20 2022-07-19 ROVl GUIDES, INC. Methods and systems of extended reality environment interaction based on eye motions
EP4232881A1 (en) * 2020-10-20 2023-08-30 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
CN114527864B (zh) * 2020-11-19 2024-03-15 京东方科技集团股份有限公司 增强现实文字显示系统、方法、设备及介质
CN116711302A (zh) 2020-12-16 2023-09-05 三星电子株式会社 以低时延发送多条应用数据的方法和装置
KR20220086367A (ko) * 2020-12-16 2022-06-23 삼성전자주식회사 저지연으로 복수의 어플리케이션 데이터 전송 방법 및 장치
US11449149B2 (en) * 2021-02-03 2022-09-20 Google Llc Assistant device arbitration using wearable device data
JP2022136601A (ja) * 2021-03-08 2022-09-21 キヤノン株式会社 電子機器およびその制御方法およびプログラム
US11868523B2 (en) 2021-07-01 2024-01-09 Google Llc Eye gaze classification
KR20230037147A (ko) * 2021-09-09 2023-03-16 한국전자통신연구원 비접촉 응시 기반 헤딩 정보를 이용한 사용자 명령 인식 장치 및 이를 이용한 방법
WO2023081574A1 (en) * 2021-11-02 2023-05-11 Google Llc Gaze-mediated augmented reality interaction with sources of sound in an environment
US20230135974A1 (en) 2021-11-04 2023-05-04 Microsoft Technology Licensing, Llc Multi-factor intention determination for augmented reality (ar) environment control
WO2023080957A1 (en) * 2021-11-04 2023-05-11 Microsoft Technology Licensing, Llc. Multi-factor intention determination for augmented reality (ar) environment control
WO2023080943A1 (en) * 2021-11-04 2023-05-11 Microsoft Technology Licensing, Llc. Multi-factor intention determination for augmented reality (ar) environment control
CN114679612A (zh) * 2022-03-15 2022-06-28 辽宁科技大学 智能家居系统及其控制方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US20090199127A1 (en) * 2008-01-31 2009-08-06 Microsoft Corporation Previewing target display areas
US9041660B2 (en) * 2008-12-09 2015-05-26 Microsoft Technology Licensing, Llc Soft keyboard control
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20120005624A1 (en) 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US9557812B2 (en) 2010-07-23 2017-01-31 Gregory A. Maltz Eye gaze user interface and calibration method
US8817053B2 (en) * 2010-09-30 2014-08-26 Apple Inc. Methods and systems for opening a file
CN103347437B (zh) * 2011-02-09 2016-06-08 苹果公司 3d映射环境中的凝视检测
US8743244B2 (en) 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
JP5960796B2 (ja) * 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
US20120299962A1 (en) 2011-05-27 2012-11-29 Nokia Corporation Method and apparatus for collaborative augmented reality displays
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US8217856B1 (en) * 2011-07-27 2012-07-10 Google Inc. Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8963805B2 (en) 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
US9035878B1 (en) * 2012-02-29 2015-05-19 Google Inc. Input system
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US9423870B2 (en) * 2012-05-08 2016-08-23 Google Inc. Input determination method
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
CN104428732A (zh) * 2012-07-27 2015-03-18 诺基亚公司 与近眼显示器的多模交互
US9201500B2 (en) * 2012-09-28 2015-12-01 Intel Corporation Multi-modal touch screen emulator
US9007301B1 (en) * 2012-10-11 2015-04-14 Google Inc. User interface
US9977492B2 (en) 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
US20140195918A1 (en) * 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
US20140191927A1 (en) 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
CN104919408A (zh) * 2013-01-25 2015-09-16 惠普发展公司,有限责任合伙企业 用户界面应用启动器及其方法
US9368113B2 (en) * 2013-01-30 2016-06-14 Google Inc. Voice activated features on multi-level voice menu
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US20140247232A1 (en) 2013-03-01 2014-09-04 Tobii Technology Ab Two step gaze interaction
US20140247208A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
KR20140108995A (ko) * 2013-03-04 2014-09-15 삼성전자주식회사 페이지의 일부 영역을 이용한 데이터 처리 방법 및 장치
US9685001B2 (en) * 2013-03-15 2017-06-20 Blackberry Limited System and method for indicating a presence of supplemental information in augmented reality
CN105190480B (zh) * 2013-05-09 2018-04-10 索尼电脑娱乐公司 信息处理设备和信息处理方法
KR102098277B1 (ko) * 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US10025378B2 (en) * 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
US9264702B2 (en) * 2013-08-19 2016-02-16 Qualcomm Incorporated Automatic calibration of scene camera for optical see-through head mounted display
CN103605208B (zh) * 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
US9256785B2 (en) * 2013-11-12 2016-02-09 Fuji Xerox Co., Ltd. Identifying user activities using eye tracking data, mouse events, and keystrokes
KR101920983B1 (ko) * 2014-04-23 2018-11-21 노키아 테크놀로지스 오와이 헤드 마운트형 디스플레이 상에서의 정보의 디스플레이

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052917A (ja) * 2018-09-28 2020-04-02 株式会社リコー 表示端末、表示制御方法およびプログラム
JP7284449B2 (ja) 2018-09-28 2023-05-31 株式会社リコー 表示端末、表示制御方法およびプログラム
DE102020000390A1 (de) 2019-01-29 2020-07-30 Fanuc Corporation Robotersystem
US11267132B2 (en) 2019-01-29 2022-03-08 Fanuc Corporation Robot system
DE102020000390B4 (de) 2019-01-29 2023-07-20 Fanuc Corporation Robotersystem
US11966518B2 (en) 2022-09-19 2024-04-23 Google Llc Assistant device arbitration using wearable device data

Also Published As

Publication number Publication date
US20160162020A1 (en) 2016-06-09
CN107003738A (zh) 2017-08-01
KR20170090490A (ko) 2017-08-07
CN107003738B (zh) 2021-02-02
US10248192B2 (en) 2019-04-02
EP3227762A1 (en) 2017-10-11
WO2016089638A1 (en) 2016-06-09
KR102473259B1 (ko) 2022-12-01

Similar Documents

Publication Publication Date Title
CN107003738B (zh) 注视目标应用启动器
EP3345074B1 (en) Augmented reality control of computing device
EP3092546B1 (en) Target positioning with gaze tracking
US10672103B2 (en) Virtual object movement
US9977492B2 (en) Mixed reality presentation
US10222981B2 (en) Holographic keyboard display
US10754496B2 (en) Virtual reality input
CN108027649B (zh) 定位增强现实环境中的设备
JP6611733B2 (ja) 表示装置の閲覧者の注視誘引
US9584915B2 (en) Spatial audio with remote speakers
US9329678B2 (en) Augmented reality overlay for control devices
JP6359099B2 (ja) ユーザインターフェースナビゲーション
US20170277256A1 (en) Virtual-reality navigation
US20140071163A1 (en) Augmented reality information detail
US20180150997A1 (en) Interaction between a touch-sensitive device and a mixed-reality device
EP2887639A1 (en) Augmented reality information detail
EP2886173B1 (en) Augmented reality overlay for control devices

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20170719