JP7389270B2 - 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース - Google Patents

視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP7389270B2
JP7389270B2 JP2022557936A JP2022557936A JP7389270B2 JP 7389270 B2 JP7389270 B2 JP 7389270B2 JP 2022557936 A JP2022557936 A JP 2022557936A JP 2022557936 A JP2022557936 A JP 2022557936A JP 7389270 B2 JP7389270 B2 JP 7389270B2
Authority
JP
Japan
Prior art keywords
user
text
content
electronic device
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022557936A
Other languages
English (en)
Other versions
JP2023520345A (ja
Inventor
アイ コネサ, ポル プラ
バス オーディング,
ステファン オー. ルメイ,
クリスティ イー. バワリー,
シー-サング チウ,
ジョナサン ラヴァスズ,
イヴジェニー クリヴォルチコ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2023520345A publication Critical patent/JP2023520345A/ja
Priority to JP2023195265A priority Critical patent/JP2024026103A/ja
Application granted granted Critical
Publication of JP7389270B2 publication Critical patent/JP7389270B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Description

(関連出願の相互参照)
本出願は、参照によりその全体が本明細書に組み込まれる2020年3月27日に出願された米国特許仮出願第63/001,210号及び2020年12月29日に出願された米国特許仮出願第63/131,754号の優先権を主張する。
これは、一般に、表示生成コンポーネントと、視線ベースのナビゲーションを実装する、表示生成コンポーネントを介してグラフィカルユーザインタフェースを提示する電子デバイスを含むがこれに限定されない、グラフィカルユーザインタフェースを提示する1つ以上の入力デバイスとを有するコンピュータシステムに関する。
拡張現実のためのコンピュータシステムの開発は、近年顕著に進んでいる。例示的な拡張現実環境は、物理的世界を置換又は強化する少なくともいくつかの仮想要素を含む。コンピュータシステム及び他の電子コンピューティングデバイス用のカメラ、コントローラ、ジョイスティック、タッチ感知面、及びタッチスクリーンディスプレイなどの入力デバイスが、仮想/拡張現実環境と相互作用するために使用される。例示的な仮想要素は、デジタル画像、ビデオ、テキスト、アイコン、並びにボタン及びその他のグラフィックなどの仮想オブジェクトを含む。
しかし、少なくともいくつかの仮想要素を含む環境(例えばアプリケーション、拡張現実環境、複合現実環境、及び仮想現実環境)と相互作用する方法及びインタフェースは、煩雑で、非効率で、限定されたものである。例えば、仮想オブジェクトに関連付けられたアクションを実行するのに不十分なフィードバックしか提供しないシステム、拡張現実環境において所望の結果を達成するために一連の入力を必要とするシステム、及び仮想オブジェクトの操作が複雑で、エラーを起こしやすいシステムは、ユーザに対して大きな認知負担を引き起こしし、仮想/拡張現実環境での体験を損なう。加えて、それらの方法は必要以上に時間がかかり、それによってエネルギを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。
したがって、コンピュータシステムとの相互作用をユーザにとってより効率的かつ直感的にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有するコンピュータシステムが必要とされている。このような方法及びインタフェースは、ユーザにコンピュータ生成現実体験を提供する従来の方法を補完又は置換することができる。このような方法及びインタフェースは、提供された入力とその入力に対するデバイス応答との間の接続をユーザが理解することを補助することにより、ユーザからの入力の数、程度及び/又は種類を低減し、それによって、より効率的なヒューマンマシンインタフェースを生成する。
表示生成コンポーネント及び1つ以上の入力デバイスを有するコンピュータシステムのためのユーザインタフェースに関連する上記の欠陥及び他の問題は、開示されたシステムによって低減又は排除される。いくつかの実施形態では、コンピュータシステムは、関連付けられたディスプレイを備えたデスクトップコンピュータである。いくつかの実施形態では、コンピュータシステムは、ポータブルデバイスである(例えばノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイスである)。いくつかの実施形態では、コンピュータシステムは、パーソナル電子デバイス(例えば腕時計やヘッドマウントデバイスなどのウェアラブル電子デバイス)である。いくつかの実施形態では、コンピュータシステムは、タッチパッドを有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のカメラを有する。いくつかの実施形態では、コンピュータシステムは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のアイトラッキングコンポーネントを有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のハンドトラッキングコンポーネントを有する。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントに加えて1つ以上の出力デバイスを有し、出力デバイスは、1つ以上の触知出力ジェネレータ及び1つ以上のオーディオ出力デバイスを含む。いくつかの実施形態では、コンピュータシステムは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザは、タッチ感知面上のスタイラス及び/又は指の接触及びジェスチャ、カメラ及び他の移動センサによってキャプチャされたときのGUI又はユーザの身体に対する空間内のユーザの目及び手の移動、並びに1つ以上のオーディオ入力デバイスによってキャプチャされたときの音声入力を通じてGUIと相互作用する。いくつかの実施形態では、相互作用を通じて実行される機能は、任意選択的に、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、メモ取り、及び/又はデジタルビデオの再生を含む。それらの機能を実行する実行可能命令は任意選択で、非一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。
ユーザインタフェースをナビゲートするための改善された方法及びインタフェースを有する電子デバイスが必要とされている。そのような方法及びインタフェースは、グラフィカルユーザインタフェースと相互作用するための従来の方法を補完又は置換することができる。そのような方法及びインタフェースは、ユーザからの入力の数、程度、及び/又は種類を削減し、より効率的なヒューマンマシンインタフェースを生成する。
いくつかの実施形態では、電子デバイスは、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する。いくつかの実施形態では、電子デバイスは、ユーザがコンテンツアイテムを読んでいるという判定に従って、コンテンツアイテムのテキストをスクロールする。いくつかの実施形態では、電子デバイスは、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする。いくつかの実施形態では、電子デバイスは、ユーザの頭部の動きの検出及びユーザの視線の検出に従って、コンテンツの部分に関連する拡張コンテンツを表示する。
前述の様々な実施形態は、本明細書に記載の任意の他の実施形態と組み合わせることができることに留意されたい。本明細書で説明する機能及び利点は、包括的なものではなく、特に、図面、明細書及び特許請求の範囲を鑑みると、多くの追加の機能及び利点が当業者には明らかになるであろう。更に、本明細書において使用される文言は、専ら読みやすさ及び説明の目的で選択されたものであり、本発明の主題を画定又は制限するために選択されたものではないことに留意されたい。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
いくつかの実施形態による、CGR体験を提供するためのコンピュータシステムの動作環境を示すブロック図である。
いくつかの実施形態による、ユーザのCGR体験を管理及び調整するように構成されたコンピュータシステムのコントローラを示すブロック図である。
いくつかの実施形態による、CGR体験の視覚的コンポーネントをユーザに提供するように構成されたコンピュータシステムの表示生成コンポーネントを示すブロック図である。
いくつかの実施形態による、ユーザのジェスチャ入力をキャプチャするように構成されたコンピュータシステムのハンドトラッキングユニットを示すブロック図である。
いくつかの実施形態による、ユーザの視線入力をキャプチャするように構成されたコンピュータシステムのアイトラッキングユニットを示すブロック図である。
いくつかの実施形態による、グリント支援視線トラッキングパイプラインを示すフローチャートである。
いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。 いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。
いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法を示すフローチャートである。
いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。 いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法を示すフローチャートである。
いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法を示すフローチャートである。
いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。 いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法を示すフローチャートである。
本開示は、いくつかの実施形態による、コンピュータ生成現実(CGR)体験をユーザに提供するユーザインタフェースに関する。
本明細書に記載のシステム、方法、及びGUIは、電子デバイスがユーザの視線及び/又はユーザの頭部の動きに基づいてナビゲーションを提供するための改善された方法を提供する。
いくつかの実施形態では、コンピュータシステムは、コンピュータシステムと通信する視線トラッキングデバイスを介して、ユーザの視線がユーザがコンテンツのアイテムを読んでいることを示すことを検出することに基づいて、コンテンツのアイテムを拡張する。ユーザの視線は、例えば、タッチ感知面又は他の物理的コントローラとは対照的に、カメラ(例えば、頭部装着型デバイスと一体化されたカメラ、ユーザから離れて設置されたカメラ(例えば、CGRルーム内)、又はユーザが表示生成コンポーネント(例えば、表示画面又はタッチスクリーンの上方に取り付けられたカメラのアレイ)によって提示される画像を見ているときにユーザに向かって設置されたカメラ)を使用して検出される。コンピューティングシステムは、任意選択的に、検出された視線位置に基づいて、ユーザがコンテンツの複数の表示されたアイテムのうちのコンテンツのどのアイテムを読んでいるかを判定し、ユーザが読んでいるコンテンツのアイテムを拡張する。ユーザがコンテンツの個別のアイテムを読んでいることを検出したことに応じてコンテンツの個別のアイテムを拡張することにより、ユーザは、視線トラッキングデバイス以外の入力デバイスを使用せずにコンテンツアイテムを読み続けることができ、コンテンツの個別のアイテムを拡張することを要求する入力を提供することができ、これにより、ユーザは、より自然かつ効率的に、拡張されたコンテンツにアクセスすることができる。更に、視線ベースのナビゲーションは、ユーザの目及び/又は頭部の動きのみを必要とし、運動制御が損なわれている人々にとってコンピューティングシステムをアクセス可能にする。
いくつかの実施形態では、コンピュータシステムは、コンピュータシステムと通信する視線トラッキングデバイスを介して、ユーザの視線がユーザがコンテンツのアイテムの個別の部分を読み終えたことを示すことを検出することに基づいて、コンテンツのアイテムをスクロールする。ユーザの視線は、例えば、タッチ感知面又は他の物理的コントローラとは対照的に、カメラ(例えば、頭部装着型デバイスと一体化されたカメラ、ユーザから離れて設置されたカメラ(例えば、CGRルーム内)、又はユーザが表示生成コンポーネント(例えば、表示画面又はタッチスクリーンの上方に取り付けられたカメラのアレイ)によって提示される画像を見ているときにユーザに向かって設置されたカメラ)を使用して検出される。コンピューティングシステムは、任意選択的に、検出された視線位置に基づいて、ユーザがコンテンツのテキストの個別の行などのコンテンツの部分を読み終えたことを判定する。ユーザの視線を検出したことに応じてコンテンツの個別のアイテムをスクロールすることにより、ユーザは、視線トラッキングデバイス以外の入力デバイスを使用せずにコンテンツアイテムを読み続けることができ、コンテンツのアイテムをスクロールすることを要求する入力を提供することができ、これにより、ユーザは、より自然かつ効率的に、コンテンツを読むことができる。更に、視線ベースのスクロールは、ユーザの目及び/又は頭部の動きのみを必要とし、運動制御が損なわれている人々にとってコンピューティングシステムをアクセス可能にする。
いくつかの実施形態では、コンピュータシステムは、コンピュータシステムと通信する1つ以上の画像センサを介して、ユーザの視線及び/又は頭部の動きを検出することに基づいてユーザインタフェースをナビゲートする。ユーザの視線及び頭部の動きは、例えば、タッチ感知面又は他の物理的コントローラとは対照的に、カメラ(例えば、頭部装着型デバイスと一体化されたカメラ、ユーザから離れて設置されたカメラ(例えば、CGRルーム内)、又はユーザが表示生成コンポーネント(例えば、表示画面又はタッチスクリーンの上方に取り付けられたカメラのアレイ)によって提示される画像を見ているときにユーザに向かって設置されたカメラ)を使用して検出される。コンピューティングシステムは、任意選択的に、1つ以上の画像センサに基づいて、ユーザが現在のナビゲーション位置以外のナビゲーション位置に対応するユーザインタフェースの個別の部分を見ていること、及び/又はユーザがユーザインタフェースの個別の部分に頭部を傾けているか又は向けていることを判定する。ユーザインタフェースの個別の部分に向けられたユーザの視線及び頭部の動きを検出したことに応じて、電子デバイスは、任意選択的に、ユーザインタフェースの個別の部分にナビゲートする。ユーザの視線及び/又は頭部の動きを検出したことに応じてユーザインタフェースをナビゲートすることにより、ユーザは、視線トラッキングデバイス以外の入力デバイスを使用せずにユーザインタフェースをナビゲートして、コンテンツの個別のアイテムを拡張するように要求する入力を提供することができ、これにより、ユーザは、より自然かつ効率的にユーザインタフェースと対話することができる。更に、視線ベースのナビゲーションは、ユーザの目及び/又は頭部の動きのみを必要とし、運動制御が損なわれている人々にとってコンピューティングシステムをアクセス可能にする。
いくつかの実施形態では、コンピュータシステムは、コンピュータシステムと通信する1つ以上の画像センサを介して、ユーザの視線及び/又は頭部の動きがコンテンツの部分に向けられていることを検出することに基づいて、コンテンツのアイテムの部分(例えば、単語、画像など)に関連付けられた拡張コンテンツを提示する。ユーザの視線及び/又は頭部の動きは、例えば、タッチ感知面又は他の物理的コントローラとは対照的に、カメラ(例えば、頭部装着型デバイスと一体化されたカメラ、ユーザから離れて設置されたカメラ(例えば、CGRルーム内)、又はユーザが表示生成コンポーネント(例えば、表示画面又はタッチスクリーンの上方に取り付けられたカメラのアレイ)によって提示される画像を見ているときにユーザに向かって設置されたカメラ)を使用して検出される。コンピューティングシステムは、任意選択的に、1つ以上の画像センサを使用して、ユーザの視線がコンテンツの部分に向けられていること、及びユーザの頭部がユーザの身体に対して前方に移動していることを判定する。ユーザの視線及び/又は頭部の動きに応じて、電子デバイスは、コンテンツの部分に関連付けられた拡張コンテンツ(例えば、定義、拡張画像、ウェブサイトプレビュー)を表示する。ユーザの視線及び/又は頭部の動きを検出したことに応じて拡張コンテンツを提示することにより、ユーザは、拡張コンテンツを提示することを要求する入力を提供するために視線トラッキングデバイス以外の入力デバイスを使用することなく拡張コンテンツを見ることができ、これにより、ユーザは、より自然かつ効率的に拡張コンテンツにアクセスすることができる。更に、ユーザの視線及び/又は頭部の動きを検出したことに応じて拡張コンテンツを提示することは、ユーザの目及び/又は頭部の動きのみを必要とし、運動制御が損なわれている人々にとってコンピューティングシステムをアクセス可能にする。
図1~6は、CGR体験をユーザに提供するための例示的なコンピュータシステムを説明する。図7A~7Kは、いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。図8~図11は、様々な実施形態による、ユーザの視線の検出に従ってナビゲーションを提供する方法の流れ図である。図7A~図7Kのユーザインタフェースは、図8~11のプロセスを説明するために使用される。
いくつかの実施形態では、図1に示されるように、CGR体験は、コンピュータシステム101を含む動作環境100を介してユーザに提供される。コンピュータシステム101は、コントローラ110(例えば、ポータブル電子デバイス又はリモートサーバのプロセッサ)と、表示生成コンポーネント120(例えば、ヘッドマウントデバイス(HMD)、ディスプレイ、プロジェクタ、タッチスクリーンなど)と、1つ以上の入力デバイス125(例えば、アイトラッキングデバイス130、ハンドトラッキングデバイス140、他の入力デバイス150)と、1つ以上の出力デバイス155(例えば、スピーカ160、触知出力ジェネレータ170、及び他の出力デバイス180)と、1つ以上のセンサ190(例えば、画像センサ、光センサ、深度センサ、触覚センサ、配向センサ、近接センサ、温度センサ、位置センサ、運動センサ、速度センサなど)と、任意選択的に1つ以上の周辺デバイス195(例えば、家電製品、ウェアラブルデバイスなど)と、を含む。いくつかの実施形態では、入力デバイス125、出力デバイス155、センサ190、及び周辺デバイス195のうちの1つ以上は、(例えば、ヘッドマウントデバイス又はハンドヘルドデバイス内で)表示生成コンポーネント120と統合される。
CGR体験を説明するとき、ユーザが感知する、及び/又は(例えば、CGR体験を生成するコンピュータシステムに、CGR体験を生成するコンピュータシステム101に提供される様々な入力に対応するオーディオ、視覚、及び/又は触覚フィードバックを生成させる、コンピュータシステム101によって検出された入力を用いて)ユーザが相互作用することができる、いくつかの関連するが、別個の環境に個別的に言及するために様々な用語が使用される。以下は、これらの用語のサブセットである。
物理的環境:物理的環境とは、人々が電子システムの助け無しに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品が挙げられる。人々は、視覚、触覚、聴覚、味覚、及び臭覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。
コンピュータ生成現実:対照的に、コンピュータ生成現実(CGR)環境とは、人々が電子システムを介して感知及び/又は相互作用する、全体的又は部分的に模倣された環境を指す。CGRでは、人の身体運動のサブセット又はその表現が追跡され、それに応答して、CGR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則でふるまうように調節される。例えば、CGRシステムは、人の頭部の回転を検出し、それに応答して、そのようなビュー及び音が物理的環境においてどのように変化するかと同様の方法で、人に提示されるグラフィックコンテンツ及び音場を調節することができる。状況によっては(例えば、アクセス性の理由から)、CGR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調節は、身体運動の表現(例えば、音声コマンド)に応答して行われてもよい。人は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、CGRオブジェクトを感知し、かつ/又はCGRオブジェクトと相互作用してもよい。例えば、人は、3D空間において点音源の知覚を提供する、3D又は空間的広がりを有するオーディオ環境を作り出すオーディオオブジェクトを感知し、かつ/又はそれと相互作用することができる。別の例では、オーディオオブジェクトによって、コンピュータ生成オーディオを含めて、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性が可能になり得る。いくつかのCGR環境では、人は、オーディオオブジェクトのみを感知し、かつ/又はそれと相互作用してもよい。
CGRの例としては、仮想現実及び複合現実が挙げられる。
仮想現実:仮想現実(VR)環境とは、1つ以上の感覚について、コンピュータ生成感覚入力に全面的に基づくように設計された模倣環境を指す。VR環境は、人が感知かつ/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人は、コンピュータ生成環境内に人が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人の身体運動のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。
複合現実:複合現実(MR)環境とは、コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計された模倣環境を指す。仮想の連続体上では、複合現実環境は、一方の端部における完全な物理的環境と、他方の端部における仮想現実環境との間であるがこれらを含まない、任意の場所である。いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変更に応答し得る。また、MR環境を提示するためのいくつかの電子システムは、仮想オブジェクトが現実のオブジェクト(即ち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に対する位置及び/又は配向を追跡してもよい。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるように、動きを考慮することができる。
複合現実の例としては、拡張現実及び拡張仮想が挙げられる。
拡張現実:拡張現実(AR)環境とは、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ねられた模倣環境を指す。例えば、AR環境を提示するための電子システムは、人が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイに仮想オブジェクトを提示するように構成されていてもよく、それによって、人はシステムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを知覚する。あるいは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又は動画をキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又は動画を仮想オブジェクトと合成し、その合成物を不透明ディスプレイ上に提示する。人はこのシステムを使用して、物理的環境を、物理的環境の画像又は動画によって間接的に見て、物理的環境に重ね合わされた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境の動画は、「パススルービデオ」と呼ばれ、システムが、1つ以上の画像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムが仮想オブジェクトを、例えば、ホログラムとして物理的環境の中に、又は物理的表面に投影するプロジェクションシステムを有してもよく、それによって、人はシステムを使用して、物理的環境に重ね合わされた仮想オブジェクトを知覚する。拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換されるシミュレーション環境を指す。例えば、パススルービデオを提供する際に、システムは、1つ以上のセンサ画像を、イメージセンサがキャプチャした透視図とは別の選択された透視図(例えば、視点)を面付けするように変形してもよい。別の例として、物理的環境の表現を、その部分をグラフィカルに変更(例えば、拡大)することによって変形してもよく、それにより、変更された部分を、元のキャプチャ画像を表すが非写実的な、改変版にすることもできる。更なる例として、物理的環境の表現は、その部分をグラフィカルに除去又は不明瞭化することによって変形されてもよい。
拡張仮想:拡張仮想(AV)環境とは、仮想環境又はコンピュータ生成環境が物理的環境から1つ以上の感覚入力を組み込んだ模倣環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVの公園には仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々が撮られた画像から写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽の位置と一致する影を採用することができる。
ハードウェア:人が様々なCGR環境を感知し、及び/又はそれと相互作用することを可能にする、多くの異なるタイプの電子システムが存在する。例としては、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(heads-up displays、HUD)、統合表示機能を有する車両ウィンドシールド、統合表示機能を有する窓、(例えば、コンタクトレンズと同様に)人の目の上に配置されるように設計されたレンズとして形成されたディスプレイ、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する又は有さない、装着型コントローラ又はハンドヘルドコントローラ)、スマートフォン、タブレット、及びデスクトップ/ラップトップコンピュータ、が挙げられる。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。あるいは、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受容するように構成されていてもよい。ヘッドマウントシステムは、物理的環境の画像若しくは動画をキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境のオーディオをキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。ヘッドマウントシステムは、不透明ディスプレイではなく、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人の目に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実施形態では、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィカル画像を人の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、仮想オブジェクトを、例えば、ホログラムとして、又は物理的表面として物理的環境に投影するように構成されてもよい。いくつかの実施形態では、コントローラ110は、ユーザのCGR体験を管理及び調整するように構成される。いくつかの実施形態では、コントローラ110は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。コントローラ110については、図2を参照して以下より詳細に記載する。いくつかの実施形態では、コントローラ110は、シーン105(例えば、物理的環境)に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ110は、シーン105内に位置するローカルサーバである。別の例では、コントローラ110は、シーン105の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実施形態では、コントローラ110は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH(登録商標)、IEEE802.11x、IEEE802.16x、IEEE802.3xなど)を介して、表示生成コンポーネント120(例えば、HMD、ディスプレイ、プロジェクタ、タッチスクリーンなど)と通信可能に結合される。別の例では、コントローラ110は、表示生成コンポーネント120(例えば、HMD、又はディスプレイ及び1つ以上のプロセッサなどを含むポータブル電子デバイス)、入力デバイス125のうちの1つ以上、出力デバイス155のうちの1つ以上、センサ190のうちの1つ以上、及び/又は周辺デバイス195のうちの1つ以上の筐体(例えば、物理的ハウジング)内に含まれる、又は上記のうちの1つ以上と同じ物理的筐体又は支持構造を共有する。
いくつかの実施形態では、表示生成コンポーネント120は、CGR体験(例えば、CGR体験の少なくとも視覚的コンポーネント)をユーザに提供するように構成される。いくつかの実施形態では、表示生成コンポーネント120は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。表示生成コンポーネント120について、図3を参照して以下より詳細に説明する。いくつかの実施形態では、コントローラ110の機能は、表示生成コンポーネント120によって提供される、及び/又は表示生成コンポーネント120と組み合わされる。
いくつかの実施形態によれば、表示生成コンポーネント120は、ユーザがシーン105内に仮想的及び/又は物理的に存在している間に、CGR体験をユーザに提供する。
いくつかの実施形態では、表示生成コンポーネントは、ユーザの身体の一部(例えば、頭部や手など)に装着される。したがって、表示生成コンポーネント120は、CGRコンテンツを表示するために提供された1つ以上のCGRディスプレイを含む。例えば、表示生成コンポーネント120は、ユーザの視野を包囲する。いくつかの実施形態では、表示生成コンポーネント120は、CGRコンテンツを提示するように構成されたハンドヘルドデバイス(スマートフォン又はタブレットなど)であり、ユーザは、ユーザの視野に向けられるディスプレイ及びシーン105に向けられるカメラを備えたデバイスを保持する。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの頭部に装着された筐体内に配置される。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの前の支持体(例えば、三脚)上に配置される。いくつかの実施形態では、表示生成コンポーネント120は、ユーザが表示生成コンポーネント120を着用又は保持しない状態でCGRコンテンツを提示するように構成されたCGRチャンバ、筐体、又は部屋である。CGRコンテンツ(例えば、ハンドヘルドデバイス又は三脚上のデバイス)を表示するための1つのタイプのハードウェアを参照して説明される多くのユーザインタフェースは、CGRコンテンツ(例えば、HMD又は他のウェアラブルコンピューティングデバイス)を表示するための別のタイプのハードウェア上に実装され得る。例えば、ハンドヘルド又は三脚実装デバイスの前の空間内で起こる相互作用に基づいてトリガされるCGRコンテンツとの相互作用を示すユーザインタフェースは、相互作用がHMDの前の空間で発生し、CGRコンテンツの応答がHMDを介して表示されるHMDと同様に実装され得る。同様に、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するハンドヘルド又は三脚実装デバイスの移動に基づいてトリガされたCRGコンテンツとの相互作用を示すユーザインタフェースは、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するHMDの移動によって引き起こされるHMDと同様に実装され得る。
動作環境100の関連する特徴が図1に示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように、簡潔化のための様々な他の特徴が示されていないことを、本開示から理解されよう。
図2は、いくつかの実施形態による、コントローラ110の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのため、非限定的な例として、いくつかの実施形態では、コントローラ110は、1つ以上の処理ユニット202(例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、処理コアなど)、1つ以上の入出力(I/O)デバイス206、1つ以上の通信インタフェース208(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)、THUNDERBOLT(登録商標)、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、グローバル移動通信システム(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、グローバル測位システム(GPS)、赤外線(IR)、BLUETOOTH、ZIGBEE(登録商標)、又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース210、メモリ220、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス204を含む。
いくつかの実施形態では、1つ以上の通信バス204は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス206は、キーボード、マウス、タッチパッド、ジョイスティック、1つ以上のマイクロフォン、1つ以上のスピーカ、1つ以上の画像センサ、1つ以上のディスプレイなどのうちの少なくとも1つを含む。
メモリ220は、ダイナミックランダムアクセスメモリ(dynamic random-access memory、DRAM)、スタティックランダムアクセスメモリ(static random-access memory、SRAM)、ダブルデータレートランダムアクセスメモリ(double-data-rate random-access memory、DDRRAM)、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ220は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性記憶デバイスなどの不揮発性メモリを含む。メモリ220は、1つ以上の処理ユニット202から遠隔に位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ220は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ220、又はメモリ220の非一時的コンピュータ可読記憶媒体は、任意選択的なオペレーティングシステム230及びCGR体験モジュール240を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
オペレーティングシステム230は、様々な基本システムサービスを処理するための手順、及びハードウェア依存タスクを実行するための手順を含む。いくつかの実施形態では、CGR体験モジュール240は、1人以上のユーザに対する1つ以上のCGR体験(例えば、1人以上のユーザに対する単一のCGR体験、又は1人以上のユーザの各グループに対する複数のCGR体験)を管理及び調整するように構成されている。その目的で、様々な実施形態では、CGR体験モジュール240は、データ取得ユニット242、トラッキングユニット244、調整ユニット246、及びデータ送信ユニット248を含む。
いくつかの実施形態では、データ取得ユニット242は、図1の少なくとも表示生成コンポーネント120、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上からデータ(例えば、提示データ、相互作用データ、センサデータ、位置データなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット242は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、トラッキングユニット244は、シーン105をマッピングし、図1のシーン105に対する少なくとも表示生成コンポーネント120し、任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上の位置を追跡するように構成される。その目的で、様々な実施形態において、トラッキングユニット244は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。いくつかの実施形態では、処理ユニット244は、ハンドトラッキングユニット243及び/又はアイトラッキングユニット245を含む。いくつかの実施形態では、ハンドトラッキングユニット243は、図1のシーン105に対する、表示生成コンポーネント120に対する、及び/又はユーザの手に対して定義された座標系に対する、ユーザの手の1つ以上の部分の位置、及び/又はユーザの手の1つ以上の部分の運動を追跡するように構成される。ハンドトラッキングユニット243について、図4を参照して以下でより詳細に説明する。いくつかの実施形態では、アイトラッキングユニット245は、シーン105に対する(例えば、物理的環境及び/又はユーザ(例えば、ユーザの手)に対する)、又は表示生成コンポーネント120を介して表示されるCGRコンテンツに対する、ユーザの視線(又は、より広範にはユーザの目、顔、又は頭部)の位置及び移動を追跡するように構成される。アイトラッキングユニット245について、図5を参照して以下でより詳細に説明する。
いくつかの実施形態では、調整ユニット246は、表示生成コンポーネント120によって、及び任意選択的に、出力デバイス155及び/又は周辺デバイス195のうちの1つ以上によって、ユーザに提示されるCGR体験を管理及び調整するように構成される。その目的で、様々な実施形態において、調整ユニット246は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、データ送信ユニット248は、データ(例えば、提示データ、位置データなど)を少なくとも表示生成コンポーネント120、及び任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に送信するように構成される。その目的で、様々な実施形態では、データ送信ユニット248は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
データ取得ユニット242、トラッキングユニット244(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248が、単一のデバイス(例えば、コントローラ110)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット242、トラッキングユニット244(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
更に、図2は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図2に別々に示すいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実装することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実施形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
図3は、いくつかの実施形態による、表示生成コンポーネント120の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的で、非限定的な例として、いくつかの実施形態では、HMD120には、1つ以上の処理ユニット302(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)デバイス及びセンサ306、1つ以上の通信インタフェース308(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、及び/又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース310、1つ以上のCGRディスプレイ312、1つ以上の任意の内向き及び/又は外向き画像センサ314、メモリ320、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス304、が含まれる。
いくつかの実施形態では、1つ以上の通信バス304は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス及びセンサ306は、慣性測定装置(IMU)、加速度計、磁力計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロフォン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、構造化光、飛行時間など)などのうちの少なくとも1つを含む。
いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ユーザにCGR体験を提供するように構成される。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放射素子ディスプレイ(SED)、電界放射ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、MEMS、及び/又は同様のディスプレイタイプに相当する。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。例えば、HMD120は、単一のCGRディスプレイを含む。別の実施例では、HMD120は、ユーザの各目用のCGRディスプレイを含む。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。
いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの目を含むユーザの顔の少なくとも部分に対応する画像データを取得するように構成される(及び、アイトラッキングカメラと称する場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの手(単数又は複数)及び任意選択的にユーザの腕(単数又は複数)の少なくとも部分に対応する画像データを取得するように構成される(及び、ハンドトラッキングカメラと称される場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、HMD120が存在しない場合に、ユーザが視認するシーンに対応する画像データを取得するように前方を向くように構成される(及び、シーンカメラと称される場合がある)。1つ以上の任意選択的な画像センサ314は、(例えば、相補型金属酸化膜半導体(CMOS)画像センサ若しくは電荷結合デバイス(CCD)画像センサを備えた)1つ以上のRGBカメラ、1つ以上の赤外線(IR)カメラ、1つ以上のイベントベースのカメラ、及び/又は同様のもの、を含むことができる。
メモリ320は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ320は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性記憶デバイスなどの不揮発性メモリを含む。メモリ320は、1つ以上の処理ユニット302から遠隔に位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ320は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ320、又はメモリ320の非一時的コンピュータ可読記憶媒体は、任意選択のオペレーティングシステム330及びCGR提示モジュール340を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
オペレーティングシステム330は、様々な基本システムサービスを処理するための手順、及びハードウェア依存タスクを実行するための命令を含む。いくつかの実施形態では、CGR提示モジュール340は、1つ以上のCGRディスプレイ312を介してCGRコンテンツをユーザに提示するように構成される。そのため、様々な実施形態では、CGR提示モジュール340は、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348を含む。
いくつかの実施形態では、データ取得ユニット342は、少なくとも図1のコントローラ110からデータ(例えば、提示データ、相互作用データ、センサデータ、位置データなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット342は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、CGR提示ユニット344は、1つ以上のCGRディスプレイ312を介してCGRコンテンツを提示するように構成される。その目的で、様々な実施形態では、CGR提示ユニット344は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、CGRマップ生成ユニット346は、メディアコンテンツデータに基づいて、CGRマップ(例えば、複合現実シーンの3Dマップ又はコンピュータ生成オブジェクトを配置することができる物理的環境のマップ)を生成するように構成される。その目的で、様々な実施形態では、CGRマップ生成ユニット346は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実施形態では、データ送信ユニット348は、少なくともコントローラ110、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上にデータ(例えば、提示データ、位置データなど)を伝送するように構成される。その目的で、様々な実施形態では、データ送信ユニット348は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
データ取得ユニット342は、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348は、単一のデバイス(例えば、図1の表示生成コンポーネント120)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
更に、図3は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図3に別々に示すいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実装することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実施形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
図4は、ハンドトラッキングデバイス140の例示的な実施形態の概略図である。いくつかの実施形態では、ハンドトラッキングデバイス140(図1)は、ハンドトラッキングユニット243(図2)によって制御されて、ユーザの手の1つ以上の部分の位置、及び/又は図1のシーン105に対する(例えば、ユーザを取り囲む物理的環境の部分に対する、表示生成コンポーネント120に対する、又はユーザの部分(例えば、ユーザの顔、目、若しくは頭部)に対する、及び/又はユーザの手に対して定義された座標系に対する)ユーザの手の1つ以上の部分の移動を追跡する。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント120の一部である(例えば、ヘッドマウントデバイスに埋め込まれる、又はヘッドマウントデバイスに取り付けられる)。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント120とは別個である(例えば、別個のハウジング内に位置する、又は別個の物理的支持構造に取り付けられる)。
いくつかの実施形態では、ハンドトラッキングデバイス140は、人間のユーザの少なくとも手406を含む三次元シーン情報をキャプチャする画像センサ404(例えば、1つ以上のIRカメラ、3Dカメラ、深度カメラ、及び/又はカラーカメラなど)を含む。画像センサ404は、指及びそれらのそれぞれの位置を区別するのを可能にするのに十分な解像度で手画像をキャプチャする。画像センサ404は、典型的には、ユーザの身体の他の部分の画像、又は身体の全ての画像をキャプチャし、ズーム機能又は高倍率を有する専用センサのいずれかを有して、所望の解像度で手の画像をキャプチャすることができる。いくつかの実施形態では、画像センサ404はまた、手406の2Dカラービデオ画像及びシーンの他の要素をキャプチャする。いくつかの実施形態では、画像センサ404は、シーン105の物理的環境をキャプチャする他の画像センサと併せて使用される、又はシーン105の物理的環境をキャプチャする画像センサとして機能する。いくつかの実施形態では、画像センサ404は、画像センサ又はその視野の部分が使用されて、画像センサによってキャプチャされた手の移動がコントローラ110への入力として処理される相互作用空間を定義するように、ユーザ又はユーザの環境に対して位置決めされる。
いくつかの実施形態では、画像センサ404は、3Dマップデータ(及び場合によってはカラー画像データ)を含むフレームのシーケンスをコントローラ110に出力し、これにより、マップデータから高レベル情報を抽出する。この高レベル情報は、典型的には、アプリケーションプログラムインタフェース(API)を介して、コントローラ上で実行されるアプリケーションに提供され、それに応じて表示生成コンポーネント120を駆動する。例えば、ユーザは、手408を移動させ、手の姿勢を変化させることによって、コントローラ110上で動作するソフトウェアと相互作用することができる。
いくつかの実施形態では、画像センサ404は、手406を含むシーン上にスポットパターンを投射し、投射されたパターンの画像をキャプチャする。いくつかの実施形態では、コントローラ110は、パターンのスポットの横方向シフトに基づいて、三角測量によって(ユーザの手の表面上の点を含む)シーン内の点の3D座標を計算する。このアプローチは、ユーザが任意の種類のビーコン、センサ、又は他のマーカを保持又は着用する必要がないという点で有利である。これは、画像センサ404からの特定の距離で、所定の基準面に対するシーン内の点の深度座標を与える。本開示では、画像センサ404は、シーン内の点の深度座標が画像センサによって測定されたz成分に対応するように、x、y、z軸の直交セットを定義すると想定される。あるいは、ハンドトラッキングデバイス440は、単一又は複数のカメラ又は他のタイプのセンサに基づいて、立体撮像又は飛行時間測定などの他の3Dマッピング方法を使用することができる。
いくつかの実施形態では、ハンドトラッキングデバイス140は、ユーザが手(例えば、手全体又は1つ以上の指)を移動させている間、ユーザの手を含む深度マップの時間シーケンスをキャプチャし処理する。画像センサ404及び/又はコントローラ110内のプロセッサ上で動作するソフトウェアは、3Dマップデータを処理して、これらの深度マップ内の手のパッチ記述子を抽出する。ソフトウェアは、各フレームにおける手の姿勢を推定するために、以前の学習プロセスに基づいて、これらの記述子をデータベース408に記憶されたパッチ記述子と照合する。姿勢は、典型的には、ユーザの手関節及び指先の3D位置を含む。
ソフトウェアはまた、ジェスチャを識別するために、シーケンス内の複数のフレームにわたって手及び/又は指の軌道を解析することができる。本明細書に記載される姿勢推定機能は、運動追跡機能とインターリーブされてもよく、それにより、パッチベースの姿勢推定が2つ(又はそれより多く)のフレーム毎に1回のみ実行される一方、追跡は残りのフレームにわたって発生する姿勢の変化を発見するために使用される。姿勢、運動、及びジェスチャ情報は、上述のAPIを介して、コントローラ110上で実行されるアプリケーションプログラムに提供される。このプログラムは、例えば、姿勢及び/又はジェスチャ情報に応答して、表示生成コンポーネント120上に提示された画像を移動させ修正する、又は他の機能を実行することができる。
いくつかの実施形態では、ソフトウェアは、例えばネットワーク上で、コントローラ110に電子形態でダウンロードされてもよい、又はその代わりに、光学、磁気、若しくは電子メモリ媒体などの、実体的非一時的媒体に提供されてもよい。いくつかの実施形態では、データベース408は、同様に、コントローラ110に関連付けられたメモリに記憶される。代替的又は追加的に、コンピュータの記載された機能の一部又は全ては、カスタム又は半カスタム集積回路又はプログラム可能なデジタル信号プロセッサ(DSP)などの専用のハードウェアに実装されてもよい。コントローラ110は、例として、画像センサ440からの別個のユニットとして図4に示されているが、コントローラの処理機能の一部又は全部は、好適なマイクロプロセッサ及びソフトウェアによって、又はハンドトラッキングデバイス402のハウジング内の専用回路によって、又は他の方法で画像センサ404に関連付けることができる。いくつかの実施形態では、これらの処理機能のうちの少なくともいくつかは、(例えば、テレビセット、ハンドヘルドデバイス、又はヘッドマウントデバイスにおいて)表示生成コンポーネント120と統合された好適なプロセッサによって、又はゲームコンソール又はメディアプレーヤなどの任意の他の適切なコンピュータ化されたデバイスを用いて実行されてもよい。画像センサ404の感知機能は、同様に、センサ出力によって制御されるコンピュータ又は他のコンピュータ化された装置に統合することができる。
図4は、いくつかの実施形態による、画像センサ404によってキャプチャされた深度マップ410の概略図を更に含む。深度マップは、上述したように、それぞれの深度値を有するピクセルのマトリックスを含む。手406に対応するピクセル412は、このマップで背景及び手首からセグメント化されている。深度マップ410内の各ピクセルの輝度は、深度値、即ち、画像センサ404からの測定されたz距離に反比例し、深度が上昇するにつれて階調が濃くなる。コントローラ110は、人間の手の特徴を有する画像の成分(即ち、隣接ピクセル群)を識別及びセグメント化するために、これらの深度値を処理する。これらの特性は、例えば、深度マップのシーケンスの全体サイズ、形状、フレームからフレームへの運動を含むことができる。
図4はまた、いくつかの実施形態による、コントローラ110が手406の深度マップ410から最終的に抽出する手骨格414を概略的に示す。図4では、骨格414は、元の深度マップからセグメント化された手の背景416に重畳される。いくつかの実施形態では、手(例えば、指関節、指先、掌の中心、手首に接続する手の終端など)、及び任意選択的に手に接続された手首又は腕上の主要な特徴点が、手の骨格414上で識別され配置される。いくつかの実施形態では、複数の画像フレーム上にわたるこれらの主要な特徴点の位置及び移動がコントローラ110によって使用されて、いくつかの実施形態により、手によって実行される手ジェスチャ又は手の現在の状態を判定する。
図5は、アイトラッキングデバイス130の例示的な実施形態を示す(図1)。いくつかの実施形態では、アイトラッキングデバイス130は、アイトラッキングユニット245によって制御されて(図2)、シーン105に対する、又は表示生成コンポーネント120を介して表示されるCGRコンテンツに対するユーザの視線の位置及び移動を追跡する。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント120と統合される。例えば、いくつかの実施形態では、表示生成コンポーネント120がヘッドセット、ヘルメット、ゴーグル、又は眼鏡などのヘッドマウントデバイス、又はウェアラブルフレームに配置されたハンドヘルドデバイスである場合、ヘッドマウントデバイスは、ユーザによる視聴のためのCGRコンテンツを生成するコンポーネント及びCGRコンテンツに対するユーザの視線を追跡するためのコンポーネントの両方を含む。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント120とは別個である。例えば、表示生成コンポーネントがハンドヘルドデバイス又はCGRチャンバである場合、アイトラッキングデバイス130は、任意選択的に、ハンドヘルドデバイス又はCGRチャンバとは別個のデバイスである。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイス又はヘッドマウントデバイスの一部である。いくつかの実施形態では、ヘッドマウントアイトラッキングデバイス130は、任意選択的に、頭部に装着されている表示生成コンポーネント又は頭部に装着されていない表示生成コンポーネントと共に使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、ヘッドマウント表示生成コンポーネントと組み合わせて使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、非ヘッドマウント表示生成コンポーネントの一部である。
いくつかの実施形態では、表示生成コンポーネント120は、ユーザの目の前に左及び右の画像を含むフレームを表示して、3D仮想ビューをユーザに提供するディスプレイ機構(例えば、左右の目近傍ディスプレイパネル)を使用する。例えば、ヘッドマウント表示生成コンポーネントは、ディスプレイとユーザの目との間に位置する左右の光学レンズ(本明細書では接眼レンズと称される)を含んでもよい。いくつかの実施形態では、表示生成コンポーネントは、表示のためにユーザの環境のビデオをキャプチャする1つ以上の外部ビデオカメラを含んでもよい、又はそれに結合されてもよい。いくつかの実施形態では、ヘッドマウント表示生成コンポーネントは、ユーザが物理的環境を直接視認し、透明又は半透明ディスプレイ上に仮想オブジェクトを表示することができる透明又は半透明のディスプレイを有してもよい。いくつかの実施形態では、表示生成コンポーネントは、仮想オブジェクトを物理的環境に投影する。仮想オブジェクトは、例えば、物理的表面上に、又はホログラフとして投影され、それによって、個人は、システムを使用して、物理的環境の上に重ねられた仮想オブジェクトを観察することができる。そのような場合、左右の目のための別個のディスプレイパネル及び画像フレームが必要とされない場合がある。
図5に示すように、いくつかの実施形態では、視線トラッキングデバイス130は、少なくとも1つのアイトラッキングカメラ(例えば、赤外線(IR)又は近IR(NIR)カメラ)、並びに光(例えば、IR又はNIR光)をユーザの目に向けて発する照明源(例えば、LEDのアレイ若しくはリングなどのIR又はNIR光源)を含む。アイトラッキングカメラは、ユーザの目に向けられて、光源からの反射IR又はNIR光を目から直接受信してもよく、又は代替的に、ユーザの目と、視覚的光が通過することを可能にしながら目からアイトラッキングカメラにIR又はNIR光を反射させるディスプレイパネルとの間に配置される「ホット」ミラーに向けられてもよい。視線トラッキングデバイス130は、任意選択的に、ユーザの目の画像を(例えば、1秒当たり60~120フレーム(fps)でキャプチャされるビデオストリームとして)キャプチャし、画像を解析して、視線トラッキング情報を生成し、視線トラッキング情報をコントローラ110に通信する。いくつかの実施形態では、ユーザの両目は、それぞれのアイトラッキングカメラ及び照明源によって別々に追跡される。いくつかの実施形態では、ユーザの片目のみが、対応するアイトラッキングカメラ及び照明源によって追跡される。
いくつかの実施形態では、アイトラッキングデバイス130は、デバイス固有の較正プロセスを使用して較正されて、特定の動作環境100用のアイトラッキングデバイスのパラメータ、例えば、LED、カメラ、ホットミラー(存在する場合)、接眼レンズ、及びディスプレイスクリーンの3D幾何学的関係及びパラメータを判定する。デバイス固有の較正プロセスは、AR/VR機器のエンドユーザへの配送前に、工場又は別の施設で実行されてもよい。デバイス固有の較正プロセスは、自動較正プロセスであってもよく、又は手動較正プロセスであってもよい。ユーザ固有の較正プロセスは、特定のユーザの目パラメータ、例えば、瞳孔位置、中心視覚位置、光軸、視軸、目間隔などの推定を含んでもよい。いくつかの実施形態によれば、一旦アイトラッキングデバイス130についてデバイス固有及びユーザ固有のパラメータが判定されると、アイトラッキングカメラによってキャプチャされた画像は、グリント支援方法を使用して処理され、ディスプレイに対するユーザの現在の視覚軸及び視点を判定することができる。
図5に示すように、アイトラッキングデバイス130(例えば、130A又は130B)は、接眼レンズ(単数又は複数)520と、アイトラッキングが行われるユーザの顔の側に配置された少なくとも1つのアイトラッキングカメラ540(例えば、赤外線(IR)又は近IR(NIR)カメラ)と光(例えば、IR又はNIR光)をユーザの目(単数又は複数)592に向かって発する照明源530(例えば、NIR発光ダイオード(LED)のアレイ若しくはリングなどのIR又はNIR光源)とを含む視線トラッキングシステムと、を含む。アイトラッキングカメラ540は、ユーザの目(単数又は複数)592とディスプレイ510(例えば、ヘッドマウントディスプレイの左若しくは右側のディスプレイパネル、又はハンドヘルドデバイスのディスプレイ、プロジェクタなど)との間に位置し、(例えば、図5の上部に示されるように)可視光を透過させながら、目(単数又は複数)592からのIR又はNIR光を反射するミラー550に向けられてもよく、あるいは、(例えば、図5の下部に示されるように)反射されたユーザの目592(単数又は複数)からのIR又はNIR光を受け取るようにユーザの目(単数又は複数)592に向けられてもよい。
いくつかの実施形態では、コントローラ110は、AR又はVRフレーム562(例えば、左及び右のディスプレイパネルの左及び右のフレーム)をレンダリングし、フレーム562をディスプレイ510に提供する。コントローラ110は、様々な目的のために、例えば、表示のためにフレーム562を処理する際に、アイトラッキングカメラ540からの視線トラッキング入力542を使用する。コントローラ110は、任意選択的に、グリント支援方法又は他の適切な方法を使用して、アイトラッキングカメラ540から得られた視線トラッキング入力542に基づいて、ディスプレイ510上のユーザの視点を推定する。視線トラッキング入力542から推定された視点は、任意選択的に、ユーザが現在見ている方向を判定するために使用される。
以下、ユーザの現在の視線方向のいくつかの可能な使用事例について説明するが、これは限定することを意図するものではない。例示的な使用例として、コントローラ110は、判定されたユーザの視線方向に基づいて、仮想コンテンツを異なってレンダリングすることができる。例えば、コントローラ110は、周辺領域よりもユーザの現在の視線方向から判定された中心視覚領域において、より高い解像度で仮想コンテンツを生成してもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内の仮想コンテンツを位置決め又は移動させてもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内に特定の仮想コンテンツを表示してもよい。ARアプリケーションにおける別の例示的な使用事例として、コントローラ110は、CGR体験の物理的環境をキャプチャして、判定された方向に焦点を合わせるように外部カメラを方向付けることができる。次いで、外部カメラの自動焦点機構は、ユーザが現在ディスプレイ510上で見ている環境内のオブジェクト又は表面に焦点を合わせることができる。別の例示的な使用事例として、接眼レンズ520は集束可能なレンズであってもよく、視線トラッキング情報がコントローラによって使用されて、ユーザが現在見ている仮想オブジェクトが、ユーザの目592の収束に一致するために適切な両目連動を有するように接眼レンズ520の焦点を調整する。コントローラ110は、視線トラッキング情報を活用して、ユーザが見ている近接オブジェクトが正しい距離で現れるように接眼レンズ520を方向付けて焦点を調整することができる。
いくつかの実施形態では、アイトラッキングデバイスは、ディスプレイ(例えば、ディスプレイ510)、2つの接眼レンズ(例えば、接眼レンズ(単数又は複数)520)、アイトラッキングカメラ(例えば、アイトラッキングカメラ(単数又は複数)540)、及びウェアラブルハウジングに取り付けられた光源(例えば、光源530(例えば、IR又はNIRLED))を含むヘッドマウントデバイスの一部である。光源は、ユーザの目(単数又は複数)592に向かって光(例えば、IR又はNIR光)を発する。いくつかの実施形態では、光源は、図5に示されるように、各レンズの周りにリング又は円状に配置されてもよい。いくつかの実施形態では、8つの光源530(例えば、LED)が、一例として各レンズ520の周りに配置される。しかしながら、より多くの又はより少ない光源530が使用されてもよく、光源530の他の配置及び位置が用いられてもよい。
いくつかの実施形態では、ディスプレイ510は、可視光範囲内の光を発し、IR又はNIR範囲内の光を発さないため、視線トラッキングシステムにノイズを導入しない。アイトラッキングカメラ(単数又は複数)540の位置及び角度は、例として与えられ、限定することを意図するものではないことに留意されたい。いくつかの実施形態では、単一のアイトラッキングカメラ540がユーザの顔の各側に位置する。いくつかの実施形態では、2つ以上のNIRカメラ540をユーザの顔の各側に使用することができる。いくつかの実施形態では、広い視野(FOV)を有するカメラ540と狭いFOVを有するカメラ540が、ユーザの顔の各側に使用されてもよい。いくつかの実施形態では、1つの波長(例えば、850nm)で動作するカメラ540と異なる波長(例えば、940nm)で動作するカメラ540とが、ユーザの顔の各側に使用されてもよい。
図5に示すような視線トラッキングシステムの実施形態は、例えば、コンピュータ生成現実、仮想現実、及び/又は複合現実アプリケーションに使用されて、コンピュータ生成現実、仮想現実、拡張現実、及び/又は拡張仮想の体験をユーザに提供することができる。
図6は、いくつかの実施形態による、グリント支援視線トラッキングパイプラインを示す。いくつかの実施形態では、視線トラッキングパイプラインは、グリント支援視線トラッキングシステム(例えば、図1及び図5に示されるようなアイトラッキングデバイス130)によって実現される。グリント支援視線トラッキングシステムは、追跡状態を維持することができる。当初、追跡状態はオフ又は「いいえ」である。追跡状態にあるとき、グリント支援視線トラッキングシステムは、現フレームを解析する際に前のフレームからの先行情報を使用して、現フレーム内の瞳孔輪郭及びグリントを追跡する。追跡状態にない場合、グリント支援視線トラッキングシステムは、現フレーム内の瞳孔及びグリントを検出しようとし、それに成功した場合、追跡状態を「はい」に初期化し、追跡状態で次のフレームに続く。
図6に示すように、視線トラッキングカメラは、ユーザの左目及び右目の左右の画像をキャプチャすることができる。次いで、キャプチャされた画像は、610で開始される処理のために視線トラッキングパイプラインに入力される。要素600に戻る矢印によって示されるように、視線トラッキングシステムは、例えば、毎秒60~120フレームの速度で、ユーザの目の画像をキャプチャし続けることができる。いくつかの実施形態では、キャプチャされた画像の各セットが、処理のためにパイプラインに入力されてもよい。しかしながら、いくつかの実施形態、又はいくつかの条件下では、全てのキャプチャされたフレームがパイプラインによって処理されるわけではない。
610で、現在のキャプチャされた画像について、追跡状態がはいである場合、この方法は要素640に進む。610で、追跡状態がいいえである場合、620に示されるように、画像が解析されて、画像内のユーザの瞳孔及びグリントを検出する。630で、瞳孔とグリントが正常に検出される場合、方法は要素640に進む。正常に検出されない場合、方法は要素610に戻り、ユーザの目の次の画像を処理する。
640で、要素410から進む場合、前のフレームからの先行情報に部分的に基づいて、現フレームが解析されて、瞳孔及びグリントを追跡する。640で、要素630から進む場合、現フレーム内の検出された瞳孔及びグリントに基づいて、追跡状態が初期化される。要素640での処理の結果は、追跡又は検出の結果が信頼できることを確認するためにチェックされる。例えば、結果は、瞳孔及び視線推定を実行するための十分な数のグリントが現フレームで正常に追跡又は検出されるかどうかを判定するためにチェックすることができる。650で、結果が信頼できない場合、追跡状態はいいえに設定され、方法は要素610に戻り、ユーザの目の次の画像を処理する。650で、結果が信頼できる場合、方法は要素670に進む。670で、追跡状態ははいに設定され(まだはいではない場合)、瞳孔及びグリント情報が要素680に渡されて、ユーザの視点を推定する。
図6は、特定の実装で使用され得るアイトラッキング技術の一例として機能することを意図している。当業者によって認識されるように、現在存在するか、又は将来開発される他のアイトラッキング技術は、様々な実施形態によるCGR体験をユーザに提供するためにコンピュータシステム101において、本明細書に記載されるグリント支援アイトラッキング技術の代わりに、又はそれと組み合わせて使用することができる。
本開示では、コンピュータシステムとの相互作用に関して、様々な入力方法が説明される。一例が1つの入力デバイス又は入力方法を使用して提供され、別の例が別の入力デバイス又は入力方法を使用して提供される場合、各例は、別の例に関して記載された入力デバイス又は入力方法と互換性があり、任意選択的に利用され得ることを理解されたい。同様に、様々な出力方法が、コンピュータシステムとの相互作用に関して説明される。一例が1つの出力デバイス又は出力方法を使用して提供され、別の例が別の出力デバイス又は出力方法を使用して提供される場合、各例は、別の例に関して記載された出力デバイス又は出力方法と互換性があり、任意選択的に利用され得ることを理解されたい。同様に、様々な方法が、コンピュータシステムを介した仮想環境又は複合現実環境との相互作用に関して説明される。実施例が仮想環境との相互作用を使用して提供され、別の例が複合現実環境を使用して提供される場合、各例は、別の例に関して説明された方法と互換性があり、任意選択的に利用され得ることを理解されたい。したがって、本開示は、各実施形態の説明における実施形態の全ての特徴を網羅的に列挙することなく、複数の例の特徴の組み合わせである実施形態を開示する。
ユーザインタフェース及び関連するプロセス
ここで、ユーザインタフェース(「UI」)の実施形態、及び、表示生成コンポーネント、1つ以上の入力デバイス、及び(任意選択的に)1つ又は複数のカメラを備えた、ポータブル多機能デバイス又はヘッドマウントデバイスなどのコンピュータシステムにおいて実行され得る関連プロセスに注目する。
図7A~7Kは、いくつかの実施形態による、電子デバイスがユーザの視線の検出に従ってユーザインタフェースのナビゲーションをどのように提供するかの例を示す図である。
図7Aは、表示生成コンポーネント120を介して、コンテンツ閲覧ユーザインタフェースを表示する電子デバイス101を示す。図1~図6を参照して上述したように、電子デバイス101は、任意選択的に、表示生成コンポーネント120(例えば、タッチスクリーン)及び複数の画像センサ314を含む。画像センサ314は、任意選択的に、可視光カメラ、赤外線カメラ、深度センサ、又は任意の他のセンサのうちの1つ以上を含み、電子デバイス101は、ユーザが電子デバイス101と相互作用している間、ユーザ又はユーザの一部の1つ以上の画像をキャプチャするために使用することができる。
図7Aに示すように、ユーザインタフェースは、コンテンツ閲覧領域700を含む。コンテンツ閲覧領域700は、各アイテムに関連付けられた画像702a~d及びテキスト704a~dの部分を含む、複数のコンテンツアイテムの表現を含む。図7Aはまた、電子デバイスで受信されたイベントのインジケーション708と、それに応じて表示されるイベントの視覚的インジケーション706とを含む。例えば、イベントのインジケーションは、別の電子デバイス又は別の電子デバイスのユーザアカウントからの着信メッセージのインジケーションなど、電子デバイス101にアクセス可能なアプリケーションによって生成されたインジケーションである。通知706の視覚的インジケーションは、任意選択的に、電子デバイス101で受信したメッセージのテキストと、メッセージを送信したユーザアカウントに関連付けられた画像などの、イベントに関連付けられたテキスト及び/又は画像を含む。したがって、いくつかの実施形態では、後述する例外がない場合、デバイス101は、通知生成イベントのインジケーションの受信に応じて、表示生成コンポーネント120を介して通知の視覚的インジケーション706を表示する(例えば、インジケーション708)。
図7Bは、コンテンツ閲覧領域700を表示する表示生成コンポーネント120を示す。図7Bでは、電子デバイス101は、ユーザの視線716pを(例えば、1つ以上の画像センサ314を使用して)検出し(例えば、ユーザの視線位置は、テキスト704aと一致している)、ユーザの視線が、ユーザがコンテンツのアイテムのうちの1つのテキスト704aを読んでいることを示していると判定する。いくつかの実施形態では、電子デバイス101は、ユーザの視線の動きを追跡し、読み取りと一致する目の動きと動きが一致するかどうかを判定することによって、ユーザが読書しているかどうかを判定する。例えば、人々が読むとき、視線は、任意選択的に、テキストの行を読んでいる間に、関連する言語(例えば、図7Bに示すように、ラテン語の場合は左から右に)のテキストの方向にテキストの行に沿って徐々に移動し、ユーザがテキストの行を読んだ後、視線は、任意選択的に、次の行を見る前に、ちょうど読んだ行に沿って反対方向(例えば、右から左)に移動する。電子デバイス101は、任意選択的に、検出されたユーザの視線の動きをこのパターンと比較して、ユーザが読書しているか否かを判定する。
図7Bに示すように、ユーザがコンテンツアイテムのテキスト704aを読んでいることを検出したことに応じて、電子デバイス101は、図7Cに示すようにユーザインタフェースを更新する。図7Cに示すように、電子デバイス101は、元のコンテンツ閲覧ユーザインタフェース700)に重ね合わされた拡張コンテンツ領域714内に、コンテンツのテキストの追加部分710a及びコンテンツに含まれる別の画像712aと共に、コンテンツのアイテムの画像702a及びテキスト704aを表示する。したがって、いくつかの実施形態では、拡張コンテンツ領域714は、コンテンツ閲覧ユーザインタフェース700では見えなかったコンテンツの部分(例えば、テキスト710a、画像712a)を含む。デバイス101は、任意選択的に、表示されたユーザインタフェースを他の方法で変更し、これは、以下で更に詳細に説明される。
上述したように、電子デバイス101は、画像センサ314を使用して、図7Bに示すようにテキスト704aを見ている間のユーザの目の動きがユーザの読書に対応するか否かを判定することができる。いくつかの実施形態では、電子デバイス101が、ユーザがコンテンツアイテムのテキスト704aを読むことなく単に見ている、又はそれを読むことなくテキストをざっと読んで/流し読みしていることを検出した場合、電子デバイス101は、図7Cに示すユーザインタフェースを表示するようにディスプレイを更新する代わりに、図7Bに示すユーザインタフェースを表示し続ける。しかしながら、いくつかの実施形態では、電子デバイス101は、テキスト704aを読むことなく見ているユーザを検出したことに応じてユーザインタフェースの更新を取り止め、ユーザがテキスト704aをざっと読む又は流し読みしていることを検出したことに応じて、図7Cに示すようにユーザインタフェースを更新する。
図7Bに示されるように、ユーザインタフェースのコンテンツ閲覧領域700は、第1のコンテンツアイテムの画像702a及びテキスト704a、並びに別のコンテンツアイテムの画像702b及びテキスト704bなどのコンテンツの複数のアイテムの表現を含む。図7Cに示されるように、電子デバイス101が第1のコンテンツアイテムの追加部分を有する他の領域714を含むようにユーザインタフェースを更新するとき、他のコンテンツアイテム(例えば、ユーザが読んでいると判定されなかったコンテンツアイテム)は拡張されない(例えば、電子デバイス101は、他のコンテンツアイテムの追加部分を表示しない)。
同様に、図7Bにおいて、ユーザが第1のコンテンツアイテムのテキスト704aを読む代わりに第2のコンテンツアイテムのテキスト704bを読むことを開始した場合、電子デバイス101は、図7Cに示される第1のコンテンツアイテムの追加領域714を電子デバイス101が表示する方法と同様の方法で、第2のコンテンツアイテムの追加部分を有するユーザインタフェース領域を含むようにユーザインタフェースを更新する。電子デバイス101は、任意選択的に、図7Bに示すコンテンツ閲覧ユーザインタフェース700を表示している間に、(任意選択的にコンテンツの他のアイテムを拡張せずに)ユーザが読み始めようとする任意のコンテンツの他のアイテムを同様に拡張する。
図7Cに示すように、ユーザインタフェースの拡張コンテンツ領域714にコンテンツの第1のアイテムを表示している間に、電子デバイス101は、ユーザインタフェースのコンテンツ閲覧領域700(及びコンテンツ閲覧領域700内のコンテンツの他のアイテム)を表示し続ける。コンテンツ閲覧領域700(及びそこに表示されるコンテンツのアイテム)は、拡張コンテンツ領域714内の第1のコンテンツアイテムの追加部分710a及び712aを表示している間に、強調解除された外観で表示される。例えば、図7Cに示すように、コンテンツ閲覧領域700(及びその中に表示されたコンテンツアイテム)は、図7Bに示すように、第1のコンテンツアイテムを拡張する前にコンテンツ閲覧領域700が表示された方法と比較して、暗い色及びより小さいサイズで表示される。いくつかの実施形態では、電子デバイス101は、拡張コンテンツ領域714を表示する前にコンテンツ閲覧領域700(及びそこに表示されるコンテンツアイテム)が表示された方法と比較して、拡張コンテンツ領域714を表示している間に、コンテンツ閲覧領域700(及びそこに表示されるコンテンツアイテム)を増加した透明度で表示する。
また、図7Cに示されるように、第1のコンテンツアイテムを含む拡張コンテンツ領域714は、ユーザインタフェースのコンテンツ閲覧領域700に重ねて表示される。いくつかの実施形態では、ユーザインタフェース内の拡張コンテンツ領域714のz高さは、拡張コンテンツ領域714が表示される前のコンテンツ閲覧領域700のz高さと同じである(例えば、図7Bのコンテンツ閲覧領域700のz高さ)。いくつかの実施形態では、図7Bに示すユーザインタフェースから図7Cに示すユーザインタフェースにユーザインタフェースを更新するとき、電子デバイス101は、任意選択的に、コンテンツ閲覧領域700をユーザインタフェース内のより低いz高さに移動する。
図7Cに示すように、いくつかの実施形態では、電子デバイス101は、図7Bに示すように、コンテンツアイテムがコンテンツ閲覧ユーザインタフェース700に表示されたユーザインタフェースと同じ位置(例えば、表示領域内の同じ水平及び/又は垂直位置)で、ユーザインタフェースの拡張コンテンツ領域714にコンテンツアイテムを表示する(例えば、画像702a及びテキスト704aは、図7B及び図7Cの表示領域内の同じ水平及び/又は垂直位置に表示される)。また、図7Cに示すように、コンテンツアイテムの幅は任意選択的に同じであり、コンテンツアイテムは、コンテンツアイテムが図7Bに示すコンテンツ閲覧領域700に表示されたときのように拡張コンテンツ領域714に表示される。図7Cに示されるように、コンテンツの高さは、拡張コンテンツ領域714に表示されるときにコンテンツの追加部分710a及び712aを明らかにするように変化する。いくつかの実施形態では、コンテンツの高さは、図7Bと図7Cとの間で同じままである。いくつかの実施形態では、コンテンツアイテムのテキストのサイズは、図7Bと図7Cとの間で同じままであり、これにより、いくつかの状況では、ユーザの注意を逸らし得るテキストの不快な動き又はサイズ変更が回避される。
いくつかの実施形態では、図7Bのユーザインタフェースから図7Cのユーザインタフェースに遷移するときにユーザインタフェース内の同じ位置にコンテンツを表示するのではなく、電子デバイス101は、表示生成コンポーネント120の表示領域の中央(又は他の所定の位置)の拡張コンテンツ領域714にコンテンツを表示する。いくつかの実施形態では、電子デバイス101は、図7Bのコンテンツ閲覧領域700にコンテンツアイテムが表示されたのと同じ位置で拡張コンテンツ領域714にコンテンツを最初に表示し、ユーザが拡張コンテンツ領域714のコンテンツアイテムを読み続けると、拡張コンテンツ領域714のコンテンツ、及び拡張コンテンツ領域自体714を表示領域の中心(又は他の所定の位置)に徐々に移動させる(例えば、ユーザが拡張コンテンツ領域内のコンテンツをますます読むにつれて、拡張コンテンツ領域をますます移動させる)。
図7Bのユーザインタフェースを図7Cのユーザインタフェースに更新するとき、電子デバイス101はまた、任意選択的に、コンテンツの第1のアイテムを表示するためのユーザインタフェースの部分を増加させる。例えば、図7Bの第1のコンテンツアイテムのコンテンツを表示するための表示領域の量は、任意選択的に、図7Cの第1のコンテンツアイテムのコンテンツを表示するための表示領域の量よりも小さい。その結果、コンテンツ閲覧領域700に表示されたよりも多くの第1のコンテンツアイテムを拡張コンテンツ領域714に表示することができる。
いくつかの実施形態では、電子デバイス101は、図7Bに示すユーザインタフェースから図7Cに示すユーザインタフェースへの遷移を徐々にアニメーション化する。電子デバイスは、任意選択的に、ユーザがコンテンツアイテムのテキスト704aを読む速度に比例する速度でアニメーションを進行させる(例えば、ユーザがより多くのテキスト704aを読むと、図7Cへのより多くの遷移が完了する)。例えば、ユーザが図7Bに示されるコンテンツアイテムのテキスト704aの部分を読む場合、電子デバイスは任意選択的にアニメーションの部分を表示する。別の例として、ユーザがコンテンツアイテムのテキスト704aの大部分を読む場合、電子デバイス101はアニメーションの大部分を表示する。
図7Cに戻ると、ユーザがコンテンツアイテムのテキスト704a又は710aの読み取りを停止し、コンテンツアイテムから目を離す(例えば、ユーザインタフェース内の位置716cを見る)場合、電子デバイス101は、任意選択的に、ユーザインタフェースを図7Bに示すユーザインタフェースに戻す。いくつかの実施形態では、電子デバイス101は、代わりに、以下に説明する方法1000の1つ以上のステップに従って、図7B及び図7Cに表示されたユーザインタフェース間をナビゲートする。いくつかの実施形態では、電子デバイス101は、(例えば、画像センサ314を使用して)ユーザがコンテンツアイテムのテキスト704a及び/又は710aの読み取りを停止したことを検出したことに応じて、図7Cに示すユーザインタフェースから図7Bに示すユーザインタフェースにユーザインタフェースを戻す。更に、いくつかの実施形態では、電子デバイス101が図7Bに示すユーザインタフェースから図7Cに示すユーザインタフェースにユーザインタフェースを更新するアニメーションを表示している間に、ユーザがコンテンツアイテムから(例えば、位置716cへ)目を離すと、電子デバイスは、ユーザインタフェースを図7Bに示すユーザインタフェースに戻す。
いくつかの実施形態では、電子デバイス101は、ユーザがユーザインタフェースに表示されたコンテンツのアイテムを読んでいる間、イベントのインジケーションの表示又は生成706を取り止める(例えば、拡張コンテンツ領域714、又はコンテンツ閲覧領域700において)。例えば、図7Aに示すように、ユーザがコンテンツ閲覧領域700のコンテンツアイテムのいずれも読んでいない間に、イベントのインジケーション708を検出したことに応じて、電子デバイス101は、イベントの通知の視覚的インジケーション706を表示する。図7Cに示すように、電子デバイス101がコンテンツアイテムの部分704aを読んでいるユーザの視線716bを検出している間に、イベントのインジケーション708の受信に応じて、電子デバイス101は、図7Aに表示された通知706の視覚的インジケーションの表示を取り止める。いくつかの実施形態では、ユーザがコンテンツアイテムを読むことを停止し、ユーザが他のコンテンツアイテムを読んでいない間に、電子デバイス101は、ユーザが読んでいた間に検出されたイベントのインジケーション706を表示する。いくつかの実施形態では、電子デバイス101は、ユーザがユーザインタフェース内のコンテンツの読み取りを停止したとデバイス101が判定した場合でも、イベントの視覚的インジケーション706を表示しない。
いくつかの実施形態では、電子デバイス101は、コンテンツアイテムのユーザの読み取りに従ってコンテンツアイテムのテキストをスクロールする。図7Cでは、電子デバイス101は、ユーザインタフェース内の第1の位置722a(例えば、画像702aの真下)にコンテンツアイテムのテキストの第1の行724aを表示する。電子デバイス101はまた、ユーザインタフェースの第2の位置722b(例えば、位置722aの真下)にテキストの第2の行724bを表示する。
ユーザがテキストの第1の行716bを読み終えたことを示すユーザの視線724aを検出したことに応じて、電子デバイス101は、図7Dに示すようにテキストをスクロールする。図7Dに示すように、スクロールの結果として、テキストの第2の行724bが第1の位置722aに表示され、テキストの第2の行724bの後のテキストの第3の行724cが第2の位置722bに表示される。電子デバイス101はまた、テキスト710a及び画像712aなどのコンテンツアイテムの残りの部分を上にスクロールする。いくつかの実施形態では、位置722a及び722bは、ユーザインタフェースの残りの部分に対して固定されている。いくつかの実施形態では、テキストの第2の行724bをユーザインタフェースの位置722aにスクロールした後、電子デバイスはテキストの第1の行724aの表示を停止する。いくつかの実施形態では、画像712aはスクロールしない。
図7Cに戻ると、いくつかの実施形態では、電子デバイス101は、ユーザがテキストの行724aを読み終えたことを電子デバイスが検出するまでコンテンツをスクロールしない。ユーザがテキストの行を読み終わらずにテキストの行724aを読んでいることを検出している間に、電子デバイス101は、ユーザインタフェースにおいてコンテンツの現在のスクロール状態を維持する(例えば、コンテンツのスクロールを取り止める)。更に、電子デバイス101は、ユーザが読むことなくコンテンツアイテムを見たり、ユーザインタフェースの他の場所を見たり、ユーザインタフェースから目を離したりしたことを検出したことに応じて、任意選択的にコンテンツのスクロールを取り止める。いくつかの実施形態では、ユーザがテキスト724aを完全に読むのではなく、テキスト724aを流し読み又はざっと読んでいることを検出したことに応じて、電子デバイス101はまた、コンテンツアイテムのスクロールを取り止める。いくつかの実施形態では、電子デバイス101は、ユーザがテキストをざっと読む又は流し読みしている間にテキストをスクロールする。例えば、画像センサ314を使用して、ユーザがコンテンツアイテムをざっと読み又は流し読みしていることを検出している間に、ユーザがテキストの第1の行724aをざっと読み又は流し読みし終えたことを検出したことに応じて、電子デバイス101は、任意選択的に、図7Dに示される位置までテキストをスクロールする。要約すると、いくつかの実施形態では、ユーザの視線がユーザがテキストの行724aを読み終えることに対応しない場合、電子デバイス101はコンテンツアイテムのスクロールを取り止める。
いくつかの実施形態では、電子デバイス101は、ユーザが今読んだ行724aに沿って逆方向に(例えば、図示されているように、ラテン語の場合は右から左へ)移動するユーザの視線716bを検出することを含む、ユーザがテキストの第1の行724aを読み終えたことを検出したことに応じてテキストをスクロールする。いくつかの実施形態では、ユーザは、次の行724aを見る前に、ちょうど読んだ行に沿って逆方向を見る-したがって、テキストの行724aに沿って逆方向に移動するユーザの視線716bを検出することは、ユーザがテキストの次の行724bを読もうとしていることを示す。いくつかの実施形態では、電子デバイス101は、ユーザの視線716bが第1の位置722aの開始に移動するのと同時(例えば、0.1、0.3、0.5秒などの時間閾値内)に、図7Dに示すように、テキストの第2の行724bが第1の位置722aに移動するように、テキストのスクロール704aのタイミングをとる。このようにして、ユーザは、ユーザインタフェース内の第2の位置722aを見るために視線を下に動かすことなく、ユーザが読んだテキストの第1の行724aと同じ位置722aでテキストの第2の行724bを読むことができる。
いくつかの実施形態では、ユーザは、コンテンツを読んでいる間に1つ以上のテキストの行をスキップする。例えば、ユーザがテキストの第1の行724aを読み終わり、テキストの第2の行724bの読み始めようとする代わりに、ユーザはコンテンツアイテムのテキストの部分710aの読み始めようとすると仮定する。ユーザの視線を使用して、ユーザがコンテンツアイテムのテキストの部分710aを読んでいることを検出したことに応じて、電子デバイス101は、任意選択的に、部分710aを位置722aまでスクロールする。いくつかの実施形態では、電子デバイス101がテキストの部分710aを位置722aまでスクロールする速度は、(例えば、ユーザがテキストの第1の行724aを読み終えたことを検出したことに応じて)電子デバイス101が行724bを位置722aまでスクロールする速度と同じ又はそれより遅い。いくつかの実施形態では、ユーザが部分710aからコンテンツアイテムを読み続けると、ユーザインタフェース内のユーザの現在の読み取り位置は、ユーザインタフェース内の位置722aに徐々に移動する(例えば、部分710a内のテキストの第1の行を読んだ後の途中の一部、部分710a内のテキストの第2の行を読んだ後の途中の別の一部など)。
いくつかの実施形態では、電子デバイス101は、画像上のユーザの視線を検出したことに応じてコンテンツアイテムの画像をスクロールする。図7Dは、コンテンツアイテムの画像712aに向けられたユーザの視線716dの検出を示す。図7Dに示すように画像712aに向けられたユーザの視線716dを検出したことに応じて、電子デバイス101は、図7Eに示すように、コンテンツをスクロールして、位置722aに画像712a(例えば、画像712の垂直中心又は他の所定の部分)を表示する。
画像712aを位置722aに表示している間に、電子デバイスは、図7Eに示すように、画像712aの下に表示されたコンテンツアイテムのテキスト716eの部分に向けられたユーザの視線710bを検出する。それに応じて、電子デバイス101は、図7Fに示すように、テキスト710bを画像712aに重なるまでスクロールする(例えば、ユーザインタフェース内で画像712aをスクロールすることなく)。いくつかの実施形態では、デバイス101は、ユーザの視線が向けられたテキスト710bの部分がユーザインタフェース内の位置722aに表示されるように、テキスト710bをスクロールする。いくつかの実施形態では、デバイスは、ユーザの視線が向けられたテキスト710bの部分が、画像712aに重ね合わされたユーザインタフェース内の別のスクロール位置に表示されるように、テキスト710bをスクロールする。いくつかの実施形態では、図7Eに示すように、ユーザがテキスト710bを見ているのを検出したことに応じて、テキスト710bを図7Fを参照して説明した位置までスクロールするのではなく、電子デバイス101は、図7Eに示すように画像712aを位置722aまでスクロールしてから所定の時間の量が経過したことを検出したことに応じて、又はユーザが単にテキスト710bを見ているのではなく、読んでいることを検出したことに応じてなど、異なる基準に応じて、テキスト710bを図7Fを参照して説明した位置までスクロールする。
いくつかの実施形態では、図7Fに示すユーザインタフェースを表示している間に、電子デバイス101は、ユーザの視線を使用して、ユーザが画像710bに重ね合わされたテキストの部分712aを読んでいることを検出する。ユーザが画像710b上に重ね合わされたテキストの部分712aを読んでいることを検出したことに応じて、電子デバイス101は、任意選択的に、テキスト710bがもはや画像上に重ね合わされないように、画像712aを上にスクロールする。任意選択的に、電子デバイス101はまた、画像712aを上にスクロールするときと同様に、テキスト704a及び710aを上にスクロールする(また任意選択的に、テキスト704a及び710aの一部又は全部を表示することを停止する)。コンテンツアイテムのスクロールは、任意選択的に、図7C~図7Fを参照して説明したように、ユーザの視線に基づいて継続する。
図7C~図7Fに示すように、いくつかの実施形態では、電子デバイス101は、テキストを垂直にスクロールする。いくつかの実施形態では、電子デバイス101は、ユーザがテキストを読むときにテキストを水平方向にスクロールする。更に、いくつかの実施形態では、電子デバイス101は、ユーザの頭部の動き及び/又は視線に「追従」するように(例えば、ユーザの視線と一致し続けるために)テキスト(及び/又はコンテンツアイテムが表示される領域714全体)を移動させる。このようにして、例えば、電子デバイス101は、ユーザインタフェースの中央などのユーザインタフェース内の所定の位置、図7Aに示すようにコンテンツアイテムがコンテンツ閲覧領域700に表示された位置、又は別の所定の位置にコンテンツを表示することができる。
いくつかの実施形態では、コンテンツをスクロールする他の方法が可能である。スクロール方向は、任意選択的に、テキストの垂直スクロール及び水平スクロールの両方を含む。例えば、ユーザが電子コミック本を読んでいる場合、コミック本のパネルは、任意選択的に、必要に応じて垂直及び水平にスクロールして、ユーザが現在ユーザインタフェース内の所定の位置で読んでいるパネルを表示する。いくつかの実施形態では、電子コミック本を表示している間、電子デバイス101は、任意選択的に、ユーザがコミックの現在表示されている吹き出しを読むことを終了するまで、電子コミック本の吹き出し及び/又は1つ以上の画像を表示しない(例えば、ユーザが電子コミック本の先行部分を読んでいることに応じて表示される電子コミック本の隠し部分のすぐ前又は他の様態で先行する電子コミック本の吹き出し又は他の部分)。
いくつかの実施形態では、電子デバイス101は、音楽、効果音、及び/又は読み上げられているテキストの記録など、コンテンツアイテムのテキスト及び/又は画像に関連付けられたオーディオコンテンツを提示する。電子デバイス101は、任意選択的に、ユーザがコンテンツを読む速度と調整された速度でオーディオコンテンツを再生する。
また、いくつかの実施形態では、電子デバイス101は、ユーザが読んでいるコンテンツのインジケーション及び/又はユーザがコンテンツを読んでいたタイムスタンプを保存することができる。後に、ユーザが個別の時間に読んでいたコンテンツのアイテムのインジケーションを提示する要求に応じて、電子デバイス101は、任意選択的に、ユーザが個別の時間に読んでいたコンテンツアイテムのインジケーションを提示することができる。いくつかの実施形態では、電子デバイス101はまた、コンテンツのアイテムのユーザの読み取り進捗を記憶することができ、ユーザがコンテンツのアイテムに戻ると、電子デバイス101は、任意選択的に、ユーザが最後に読んだコンテンツの部分のインジケーションを提示する及び/又はユーザが最後に読んだ部分にコンテンツをスクロールする。
いくつかの実施形態では、拡張コンテンツ領域714にコンテンツアイテムを表示し、ユーザの視線に従ってコンテンツをスクロールしながら、画像センサ314を使用して、ユーザが所定の時間量(例えば、0.5秒、1秒、2秒)目を閉じたことを検出したことに応じて、電子デバイスは、図7Cに示すコンテンツアイテムの状態など、コンテンツアイテムを先頭までスクロールする。
いくつかの実施形態では、コンテンツアイテムを流し読み又はざっと読むユーザを検出したことに応じて、電子デバイス101は、任意選択的に、コンテンツアイテムの残りの部分とは異なる視覚特性でコンテンツアイテムの1つ以上のキーワードを表示する。例えば、キーワードは、太字及び/又はテキストの残りの部分とは異なる色及び/又はサイズで表示される。
図7C~図7Fを参照して説明したように、電子デバイス101は、ユーザがテキストを読んでいることを検出したことに応じて、テキストを下方にスクロールする。いくつかの実施形態では、テキストを上方にスクロールするために視線検出以外の入力が必要である(例えば、デバイス101は、任意選択的に、視線入力に応じてコンテンツアイテムを上にスクロールしない)。例えば、電子デバイスは、任意選択的に、タッチスクリーン、マウス、キーボード、動きセンサ、又はユーザインタフェース内でコンテンツアイテムを上方にスクロールするための他の入力デバイスで検出された方向入力など、画像センサ314以外の入力デバイスからの入力を検出したことに応じて、テキストを上方にスクロールする。このようにして、デバイス101は、上方及び下方の両方のスクロールが視線に基づいて実行された場合に発生する可能性がある、煩雑で不必要な前後方向のスクロールを回避することができる。
図7A~図7Cを参照して上述したように、電子デバイス101は、ユーザがコンテンツアイテムの部分704aを読んでいることを検出したことに応じて、コンテンツ閲覧領域700上に重ね合わされた領域714を表示する。図7Cに示すように、領域714は、ユーザが領域714を見ている間にコンテンツ閲覧領域700に対して視覚的に強調され、例えば、領域714を領域700に重ねて表示し、及び/又は領域714を完全な色、明瞭性(例えば、ぼやけがない)、及び/又はサイズで表示し、一方でコンテンツ閲覧領域700をくすんだ色(例えば、低下した飽和)、減少された明瞭性(例えば、ぼやけている)、及び/又は低彩度で表示する。
いくつかの実施形態では、電子デバイス101は、ユーザの視線及び/又は頭部の動きに従って、ユーザインタフェースのコンテンツ閲覧領域700とユーザインタフェースの領域714との間をナビゲートする。図7Cに戻ると、コンテンツ閲覧領域700に重ね合わされた領域714内にコンテンツアイテムを表示している間に、電子デバイス101は、コンテンツ閲覧領域700上のユーザの視線716cを検出する。いくつかの実施形態では、電子デバイス101はまた、(ユーザの身体に対して)前方及び/又はコンテンツ閲覧領域700に向かうユーザの頭部の動き(例えば、右に傾いたり、向いたりする)など、1つ以上の基準を満たすユーザの頭部の動きを検出する。ユーザの視線716c及び頭部の動きを検出したことに応じて、電子デバイス101は、以下でより詳細に説明するように、図7A及び/又は図7Bに示すコンテンツ閲覧ユーザインタフェースに戻り始める。
電子デバイス101は、任意選択的に、図7Cに示すようにコンテンツ閲覧領域700上に重ね合わされた領域714を表示することと、図7Bに示すようにコンテンツ閲覧領域を表示することとの間の遷移をアニメーション化する。いくつかの実施形態では、アニメーションは、前方及び/又はコンテンツ閲覧領域700に向かう頭部の動きの量及び/又は持続時間及び/又はコンテンツ閲覧領域700上のユーザの視線の持続時間に比例する速度で進行する。図7G及び図7Hは、アニメーションの中間フレームを示す。図7Cの前方及び/又はコンテンツ閲覧領域700に向かうユーザの頭部の動き及びユーザの視線716cを検出したことに応じて、電子デバイス101は、図7Gに示されるユーザインタフェースを表示することを含むアニメーションを開始する。図7Gに示すように、電子デバイス101は、領域714の強調を解除(例えば、暗化及び/又はぼやけさせる)し、及び/又はコンテンツ閲覧領域700を強調(例えば、明るくする及び/又は明瞭性を増加)し始める。いくつかの実施形態では、電子デバイス101は、透明度、輝度、飽和度、及び/又はサイズなどの領域714及び700の他の特性を変更する。
図7Gに示すように前方及び/又はコンテンツ閲覧領域700に向かう頭部の動き及びコンテンツ閲覧領域700上のユーザの視線716gの検出の継続に応じて、電子デバイス101は、図7Hに示されるユーザインタフェースを表示することを含むアニメーションを進行させる。図7Hに示すように、電子デバイス101は、領域714の強調を解除(例えば、暗化及び/又はぼやけさせる)し、及び/又はコンテンツ閲覧領域700の強調表示(例えば、明るくする及び/又は明瞭性を増加)を継続する。また、電子デバイス101は、図7Gに示すように、領域714を縮小されたサイズで表示し、領域714及び700がアニメーションで前に表示されたサイズと比較して増大したサイズでコンテンツ閲覧領域700を表示する。いくつかの実施形態では、電子デバイス101は、透明度、輝度、飽和度、及び/又はサイズなどの領域714及び700の他の特性を変更する。いくつかの実施形態では、(図7Cに示すように)コンテンツ閲覧領域700に向けられたユーザの視線716cを検出したことに応じて、前方及び/又はコンテンツ閲覧領域700に向かう頭部の動きを検出することなく、電子デバイス101は、図7G及び図7Hに示すアニメーションの表示を開始する。しかしながら、電子デバイスは、任意選択的に、コンテンツ閲覧領域700に向けられたユーザの視線716cと基準を満たす頭部の動きの両方が検出されない限り、図7Bに示すようにコンテンツ閲覧領域700に戻るようにナビゲートしない。いくつかの実施形態では、領域700と714との間のナビゲーションを開始するために任意選択で必要とされる対応する頭部の動きなしに、領域700と714との間を前後移動するユーザの視線を検出したことに応じて、デバイス101は、2つの領域のサイズ及び/又は動きの変化を表示又はアニメーション化することなく、2つの領域のサイズ以外の1つ以上の視覚特性のみを変更する。例えば、ユーザの視線が領域714に向けられている間、領域714は完全な明瞭性、色などで表示され、領域700はより低い明瞭性(例えば、ぼやけている)、色(例えば、グレースケールなどの減少された彩度)などで表示され、ユーザの視線が対応する頭部の動きなしに領域700に向けられたことに応じて、デバイス101は、完全な明瞭性、色などで領域700を表示し、領域714は、より低い明瞭性(例えば、ぼやけている)、色(例えば、グレースケール)などで表示され、逆もまた同様である。
図7Hに示すように、前方及び/又はコンテンツ閲覧領域700に向かう頭部の動き及びコンテンツ閲覧領域700上のユーザの視線716hを検出し続けることに応じて(例えば、ユーザの視線及び頭部の動きが1つ以上の所定の基準を満たすことを検出したことに応じて)、電子デバイス101は、図7Bに示すように、コンテンツ閲覧領域700を表示するためにアニメーションを進行し続け、拡張コンテンツ領域714の表示を停止する。図7Bに示すように、コンテンツ閲覧領域700は、完全なサイズ、完全な色、完全な明瞭性、及び/又は最小の透明度で表示され、領域714はもはや表示されない。したがって、ユーザの前方及び/又はコンテンツ閲覧領域700に向かう頭部の動き及びコンテンツ閲覧ユーザインタフェース700上のユーザの視線を検出したことに応じて、電子デバイス101は、領域714からコンテンツ閲覧領域700に戻るようにナビゲートする。
図7Cに戻ると、領域700に戻るためのナビゲーション基準を満たさないユーザの頭部の動きを検出したこと、又は頭部の動きを全く検出しなかったことに応じて、電子デバイス101は、コンテンツ閲覧領域700に重ね合わされた領域714を表示し続ける。また、頭部の動きを検出せずにコンテンツ閲覧領域700上のユーザ716cの視線を検出したことに応じて、電子デバイス101は、コンテンツ閲覧領域700に戻るナビゲーションを取り止める。更に、ユーザがナビゲーション基準(例えば、コンテンツ閲覧領域700への前進又は移動)を満たす頭部の動きを行ったが、コンテンツ閲覧領域700を見る代わりに領域714を見続けた場合、電子デバイス101は、コンテンツ閲覧領域700に戻るナビゲーションを取り止める。
いくつかの実施形態では、電子デバイス101は、アニメーションが表示されている間にユーザが領域714を見た場合、領域714から領域700にナビゲートするアニメーションを反転させ、コンテンツ閲覧領域700に戻るナビゲーションを取り止める。図7Gに示すように、電子デバイス101は、領域716fからコンテンツ閲覧領域714へナビゲートするアニメーションを表示している間に、領域714上のユーザの視線700を検出する。ユーザの視線716fを検出したことに応じて、電子デバイス101は、任意選択的に、コンテンツ閲覧領域700に戻るナビゲートを停止し、図7Cに示すユーザインタフェースを表示する。図7Cに示すように、領域714は、完全な色、明瞭性、及び/又はサイズ及び/又は最小の透明度で表示され、コンテンツ閲覧領域700は、図7Gに示す領域714及び700の外観と比較して、縮小されたサイズで、より暗い色、より大きいぼやけ、及び/又はより大きい透明度で表示される。
したがって、図7A~図7Hを参照して上述したように、電子デバイスは、ユーザの視線及び/又は頭部の動きに従って、ユーザインタフェースの領域間をナビゲートすることができ、テキストの表示を停止することを含む。いくつかの実施形態では、いくつかのテキスト(例えば、通知706の視覚的インジケーション、拡張コンテンツ領域714に表示されるテキストなど)は、最初に読まれない限り、破棄することができない。例えば、通知及び/又は条項及び条件の視覚的インジケーション706は、ユーザがこれらのアイテムのコンテンツを読んだことを電子デバイス101が(例えば、画像センサ314を用いて)検出するまで表示される。いくつかの実施形態では、ユーザが通知706のインジケーションを読んだことを検出したことに応じて、電子デバイスは、通知に関連付けられたアプリケーションを表示する。
いくつかの実施形態では、電子デバイス101は、ユーザがコンテンツアイテムの部分を見ており、頭部を前方(例えば、ユーザの身体に対して)に動かしたことを検出したことに応じて、コンテンツアイテムの部分に関連する拡張コンテンツを表示する。例えば、拡張コンテンツは、コンテンツアイテムに含まれる単語の定義、ハイパーリンクのプレビュー、又は画像の拡大(例えば、拡大又は非クロップ)バージョンである。
例えば、図7Cを参照すると、電子デバイス101は、ユーザが頭部を前方に動かしている間にユーザの視線716aを検出する。図7Cに示すように、ユーザの視線716aは、コンテンツアイテムの個別の単語718a「Lorem」の位置にある。所定の時間量にわたる個別の単語718aに対するユーザの視線716aの検出及び/又は、ユーザの視線716aが個別の単語718a上にある間、所定の時間量及び/又は所定の距離にわたるユーザの頭部の動きに応じて、電子デバイス101は、図7Iに示すように単語718aを太字の書体で表示するなど、修正された外観で単語718aを表示する。
図7Iに示すように、単語718a上のユーザの視線716i及び前方への頭部の動きを検出し続けることに応じて、電子デバイス101は、図7Jに示すように、単語718aに関連付けられた拡張コンテンツ720aを表示する。したがって、ユーザの視線及び頭部の動きに応じて、電子デバイス101は、最初に、電子デバイス101が拡張コンテンツ720を表示しようとしているというインジケーションを表示し(例えば、視線が向けられた単語の外観を変更する)、次いで、頭部の動きが維持又は継続され、視線が単語718aに保持されている場合、電子デバイス101は拡張コンテンツ720aを表示する。
いくつかの実施形態では、電子デバイス101は、図7Iに示すユーザインタフェースと図7Jに示すユーザインタフェースとの間の遷移をアニメーション化する。アニメーションの進行は、任意選択的に、ユーザの視線が単語718a上にある持続時間、ユーザが頭部を前方に保持している持続時間、又はユーザが頭部を前方に動かす距離及び/又は速度に比例する。
ユーザが頭部を前方に動かしている間であるが、単語718aの拡張コンテンツを表示する前に、コンテンツアイテムの異なる単語又は画像を見る場合、電子デバイス101は、任意選択的に、異なる単語又は画像に関連する拡張コンテンツを表示し、拡張コンテンツが表示されようとしているという視覚的インジケーションを最初に表示し(例えば、他の単語を太字にする)、次いで、頭部の動きが継続又は維持され、視線が保持されている場合に拡張コンテンツを表示することを含む。例えば、図7Kに示すように、単語718bに対するユーザの視線716n及び頭部の動きを検出したことに応じて、電子デバイス101は、単語718bに関連する拡張コンテンツ720bを表示する。
いくつかの実施形態では、電子デバイス101は、ユーザが頭部の動きを行わずにコンテンツアイテムの部分を単に見る場合、コンテンツアイテムの部分に関連する拡張コンテンツを表示しない。更に、電子デバイス101はまた、ユーザがコンテンツの部分を見ている間に頭部の動きが検出されない限り、電子デバイス101が拡張コンテンツ(例えば、単語又はコンテンツの部分を太字にする)を表示しようとしているというインジケーションの表示を取り止める。例えば、図7Cを参照すると、頭部の動きを検出せずに単語718a上のユーザの視線716aを検出したことに応じて、電子デバイス101は、図7Iのユーザインタフェースを表示する代わりに図7Cのユーザインタフェースを表示し続ける。
また、いくつかの実施形態では、電子デバイス101が図7Iのユーザインタフェースを表示している間にユーザがコンテンツアイテムの異なる部分を見る場合、電子デバイス101は、単語718aに関連付けられた拡張コンテンツの表示を取り止める。代わりに、いくつかの実施形態では、電子デバイス101は、ユーザが見ているコンテンツアイテムの他の部分に関連付けられた拡張コンテンツ(例えば、コンテンツアイテムの他の部分を太字にすること)が表示されようとしているというインジケーションを最初に表示し、次いで、ユーザが頭部の動きを維持又は継続しながらコンテンツアイテムのその部分を見続ける場合、電子デバイス101は、コンテンツアイテムの他の部分に関連付けられた拡張コンテンツを表示する。
例えば、ユーザが頭部を前方に動かしながら単語718aを見ていることを検出したことに応じて、図7Iに示すユーザインタフェースを表示している間に、電子デバイスは、任意選択的に、ユーザが単語718bを見ていることを検出する。ユーザが単語718bを見ていることを検出したことに応じて、電子デバイス101は、任意選択的に、単語718aを太字で表示することを停止し、代わりに単語718bを太字で表示する。次に、この例では、ユーザが単語718bを見続け、頭部の前方への移動を継続又は維持する場合、電子デバイス101は、図7Kに示すように、単語718bに関連付けられた拡張コンテンツ720bを表示する。
いくつかの実施形態では、図7J及び図7Kに示すように、電子デバイスは、拡張コンテンツ領域714内に拡張コンテンツ720を表示する。いくつかの実施形態では、拡張コンテンツ720は、拡張コンテンツ720が対応する単語の上又は近くに重ねて表示される。図7J及び図7Kは、コンテンツのテキスト又は画像(単数又は複数)に重ね合わされずに拡張コンテンツ領域714に表示された拡張コンテンツ720aを示しているが、いくつかの実施形態では、拡張コンテンツ714は、拡張コンテンツ領域714に表示されたコンテンツアイテムに重ね合わされる。
しかしながら、いくつかの実施形態では、個別の単語に対応する拡張コンテンツが表示されると、異なる単語を見ても、電子デバイス101は、他の単語を太字の書体で及び/又はその他の単語の拡張コンテンツを表示しない。例えば、図7Jを参照すると、単語718aに関連付けられた拡張コンテンツ720aが表示されている間にユーザが単語718bを見る場合、電子デバイス101は、単語718bを太字の書体で表示するようにユーザインタフェースを更新しない。いくつかの実施形態では、ユーザは、拡張コンテンツが表示される前には、拡張コンテンツが表示されるコンテンツの部分を変更することができるが、後には変更することができない。
図7Iに戻ると、電子デバイス101が単語718aに関連付けられた拡張コンテンツを表示しようとしていることを示すために単語718aを太字で表示している間に、電子デバイス101がユーザが頭部を後方に動かしたことを検出した場合、電子デバイス101は拡張コンテンツを表示するプロセスを停止する。頭部の後方への動きを検出したことに応じて、電子デバイス101は、単語718aの太字表示を停止し、ユーザインタフェースを図7Cに示すユーザインタフェースに戻す。
図7Jに戻ると、いくつかの実施形態では、電子デバイス101が拡張コンテンツ720aを表示している間、電子デバイス101は、拡張コンテンツ720aの表示を停止するための1つ以上の基準を任意選択的に検出する。例えば、電子デバイス101は、拡張コンテンツ上のユーザの視線716lを検出したことに応じて拡張コンテンツ720aの表示を任意選択的に停止し、続いてユーザインタフェース内の異なる位置でユーザの視線を検出する(例えば、位置716j)。別の例として、電子デバイス101がユーザが拡張コンテンツ720aを見ていることを検出し、次いでコンテンツアイテムのテキスト704a又は710aの読み取りを再開した場合、電子デバイス101は拡張コンテンツ720aの表示を停止する。ユーザが拡張コンテンツ720aを見ていないが、画像702a上の位置716jを見ているなど、ユーザインタフェースの異なる位置を見ている場合、電子デバイス101は任意選択的に拡張コンテンツ720aを表示し続け、ユーザは後でそれを見ることができる。
しかしながら、いくつかの実施形態では、ユーザが拡張コンテンツ720aを見たか否かにかかわらず、電子デバイス101がユーザがコンテンツ(例えば、テキスト704a又は710a)を読んでいることを検出した場合、電子デバイス101は拡張コンテンツ720aの表示を停止する。また、いくつかの実施形態では、ユーザが典型的な瞬きよりも長い所定の時間(例えば、0.5秒、1秒、2秒など)目を閉じていることを検出したことに応じて、電子デバイス101は拡張コンテンツ720aの表示を停止する。電子デバイス101は、任意選択的に、次第に消える又は遠ざかる拡張コンテンツ720aのアニメーションによって拡張コンテンツ720aの表示を停止する。いくつかの実施形態では、次第に消える又は遠ざかっているが、完全に表示されなくなる前に、ユーザが拡張コンテンツ720aを見る場合、電子デバイス101は、図7Jに示すように拡張コンテンツ720aを表示するためにユーザインタフェースを元に戻す。
図7A~図7Kに関する追加の説明は、以下の図8~11に関して記載された方法800~1100を参照して以下に提供される。
図8A~図8Gは、いくつかの実施形態による、ユーザの視線の検出に従ってコンテンツのアイテムを拡張する方法800を示すフローチャートである。いくつかの実施形態では、方法800は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法800は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法800の一部の動作が任意選択的に組み合わされ、及び/又はいくつかの動作の順序が任意選択的に変更される。
方法800では、いくつかの実施形態では、表示生成コンポーネント及び視線トラッキングデバイス(例えば、314)(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ)、コンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータ)、又はウェアラブルデバイス(例えば、ウォッチ、頭部装着型デバイス)と通信する電子デバイス(例えば、図1のコンピュータシステム101)は、表示生成コンポーネント(例えば、120)を介して、第1のコンテンツ領域(例えば、700)を含むユーザインタフェースを表示し(802)、第1のコンテンツ領域は、図7Aに示すように、コンテンツアイテムの第1の部分(例えば、704a)を含む(例えば、コンテンツアイテムはテキストコンテンツを含み、コンテンツアイテムの第1の部分はテキストコンテンツの第1の部分である)。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、図7Bのように、電子デバイスのユーザの視線(例えば、716p)がコンテンツアイテムの第1の部分(例えば、704a)に向けられていると判定する(804)(例えば、視線トラッキングデバイスは、図6を参照してより詳細に上述したように、ユーザの目の1つ以上の画像を任意選択的にキャプチャし、キャプチャされた1つ以上の画像内の瞳孔及びグリントを検出してユーザの視線を追跡する)。
いくつかの実施形態では、ユーザの視線(例えば、716p)が、図7Bなどのコンテンツアイテムの第1の部分(例えば、704a)に向けられているという判定に応じて(806)、ユーザの視線(例えば、716p)の動きが、ユーザがコンテンツアイテムの第1の部分(例えば、704a)を読んでいることを示すという判定に従って(808)(例えば、電子デバイスは、ユーザの目の検出された動きに基づいて、ユーザが単にコンテンツアイテムの第1の部分を見ているかどうか、又はユーザが実際にコンテンツアイテムの第1の部分を読んでいるかどうかを判定することができる)、電子デバイス(例えば、101)は、図7Cなどの、第2のコンテンツ領域(例えば、714)であって、第2のコンテンツ領域は、コンテンツアイテムの第1の部分(例えば、704a)と、第1のコンテンツ領域(例えば、700)に表示されなかったコンテンツアイテムの第2の部分(例えば、710a)とを含む、第2のコンテンツ領域(例えば、714)を含むようにユーザインタフェースを更新する(810)(例えば、コンテンツアイテムが表示されるユーザインタフェースの領域を拡張する)。
いくつかの実施形態では、図7Bに示される、ユーザがコンテンツアイテムの第1の部分(例えば、704a)を読んでいることを示すように移動することなく、ユーザの視線(例えば、716p)がコンテンツアイテムの第1の部分(例えば、704a)に向けられているという判定に従って(812)(例えば、電子デバイスは、ユーザの目の1つ以上の画像に基づいて、ユーザの目の動きが読み取りと一致する目の動きと一致しないと判定する)、電子デバイス(例えば、101)は、図7Cに示される第2のコンテンツ領域(例えば、714)を含むようにユーザインタフェースを更新することを取り止める(例えば、電子デバイスは、第1のコンテンツ領域と共にユーザインタフェースを表示し続ける)。
いくつかの実施形態では、表示生成コンポーネントは、電子デバイス(任意選択的にタッチスクリーン)及び/又はモニタ、プロジェクタ、テレビなどの外部ディスプレイと統合されたディスプレイである。いくつかの実施形態では、視線トラッキングデバイスは、1つ以上のカメラ(単数又は複数)(例えば、IRカメラ、NIRカメラ、可視光カメラなど)を含む。
いくつかの実施形態では、ユーザインタフェースは、複数のコンテンツアイテムの部分を含む。例えば、ユーザインタフェースは、デジタル新聞の記事見出し及び/又は1つ以上の記事の部分を含むデジタル新聞ユーザインタフェースである。別の例として、ユーザインタフェースは、電子メールインボックスユーザインタフェースであり、コンテンツアイテムは、電子メールの送信者のインジケーション、電子メールの件名のインジケーション、及び/又は電子メールメッセージのテキストのプレビューを含む電子メールのプレビューである。いくつかの実施形態では、コンテンツアイテムは、1つ以上の画像など、テキスト以外のコンテンツを含む。
電子デバイスは、任意選択的に、ユーザの目の1つ以上のキャプチャ画像を比較して、ユーザの目の動きが読み取りと一致する動きと一致するかどうかを判定する。
例えば、ユーザが記事のテキストの第1の部分を読んでいることを検出したことに応じて、電子デバイスは、記事のテキストの第2の部分の表示を開始する。いくつかの実施形態では、コンテンツアイテムの第1及び第2の部分は、第1のコンテンツ領域を含むユーザインタフェース上に重ねて表示される。いくつかの実施形態では、第2のコンテンツ領域を表示する前に、ユーザがコンテンツの第1の部分を読んでいることを検出したことに応じて、電子デバイスは、第2のコンテンツ領域の緩やかな表示をアニメーション化し始める。例えば、電子デバイスは、コンテンツの第2の部分の一部の表示を開始するか、又は徐々に不透明になる透明な外観で最初にユーザインタフェース上に重ね合わされたコンテンツの第2の部分を表示する。第2のコンテンツ領域の段階的な表示をアニメーション化している間、ユーザが第1のコンテンツアイテムから目を離すのを検出したことに応じて、電子デバイスは、任意選択的に、コンテンツの第2の部分の表示を停止し、第1のコンテンツ領域の表示を再開する。いくつかの実施形態では、ユーザがコンテンツアイテムを読み続けていることを検出したことに応じて、電子デバイスは、コンテンツアイテムの第2の部分の全体の部分を表示すること、又は完全に不透明な第2のコンテンツ領域を表示することなどによって、コンテンツアイテムの第1及び第2の部分を含む第2のコンテンツ領域の表示に完全に遷移する。いくつかの実施形態では、ユーザインタフェースの更新は、電子デバイスと通信する別の入力デバイスから追加の入力を受信することなく、視線トラッキングコンポーネントによって収集されたデータに応じて実行される。
ユーザがコンテンツアイテムの第1の部分を読んでいることを検出したことに応じて、第2のコンテンツ領域をコンテンツアイテムの第1の部分及び第2の部分と共に表示する上記の方法は、ユーザの視線を追跡することを超えてユーザ入力を必要とせずに電子デバイスがコンテンツアイテムを拡張することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツを実際に読んでいる場合にのみコンテンツを拡張することによって)、ユーザエラーの低減などにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
図7Bのようないくつかの実施形態では、ユーザインタフェースは、第3のコンテンツ領域を更に含み、第3のコンテンツ領域は、第2のコンテンツアイテムの第1の部分(例えば、704b)を含む(816)(例えば、いくつかの実施形態では、第2のコンテンツアイテムは、テキストコンテンツを含む)。第2のコンテンツアイテムは、任意選択的に、第1のコンテンツアイテムとは異なる。例えば、第1のコンテンツアイテム及び第2のコンテンツアイテムは、デジタル新聞内の記事である。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイスは、視線トラッキングデバイス(例えば、314)を介して、電子デバイスのユーザの視線が第2のコンテンツアイテムの第1の部分(例えば、704b)に向けられていると判定する(818)(例えば、視線トラッキングデバイスは、図6を参照してより詳細に説明するように、ユーザの目の1つ以上の画像を任意選択的にキャプチャし、キャプチャされた1つ以上の画像内の瞳孔及びグリントを検出してユーザの視線を追跡する)。
いくつかの実施形態では、ユーザの視線が第2のコンテンツアイテムの第1の部分(例えば、704b)に向けられていると判定したことに応じて(820)、ユーザの視線の動きが、ユーザが第2のコンテンツアイテムの第1の部分(例えば、704b)を読んでいることを示しているという判定に従って(822)(例えば、電子デバイスは、ユーザが第2のコンテンツアイテムの第1の部分を見ている間のユーザの目の動き(単数又は複数)に基づいて、ユーザが第2のコンテンツアイテムの第1の部分を読んでいると判定することができる)、電子デバイス(例えば、101)は、図7Cに示すように、電子デバイス(例えば、101)がコンテンツ領域(例えば、714)を表示する方法と同様の方法で第2のコンテンツ領域を表示することなく、第2のコンテンツアイテムの第1の部分(例えば、704b)と第3のコンテンツ領域に表示されなかった第2のコンテンツアイテムの第2の部分とを含む第4のコンテンツ領域を含むようにユーザインタフェースを更新する(824)。
いくつかの実施形態では、ユーザが第3のコンテンツ領域に表示された第2のコンテンツアイテムの第1の部分を読んでいることを検出したことに応じて、電子デバイスは、第2のコンテンツアイテムの追加部分を表示する。したがって、電子デバイスが複数のコンテンツアイテム(例えば、第1のコンテンツアイテム及び第2のコンテンツアイテム)を表示している間、電子デバイスは、ユーザがコンテンツアイテムのうちの1つを読み始めたことを検出し、それに応じて、ユーザが読んでいないコンテンツアイテムを拡張することなく、ユーザが読んでいるコンテンツアイテムを拡張する。いくつかの実施形態では、ユーザが第1のコンテンツアイテム又は第2のコンテンツアイテム(又は第1のコンテンツ領域に表示された任意の他のコンテンツアイテム)を見ていないという判定に従って、電子デバイスは、個別のコンテンツアイテムの追加部分(単数又は複数)を有する個別の領域を含むようにユーザインタフェースを更新することを取り止める。
ユーザが第2のコンテンツアイテムを読んでいることを検出したことに応じて第2のコンテンツアイテムの第2の部分を表示し、ユーザが第1のコンテンツアイテムを読んでいることを検出したことに応じて第1のコンテンツアイテムの第2の部分を表示する上記の方法は、電子デバイスが、ユーザが読んでいるコンテンツアイテムの追加部分を提示する効率的な方法を提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、コンテンツを拡張するために追加の入力を必要とする代わりに、コンテンツアイテムを拡張するための入力としてユーザ読み取りの検出を受け入れることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、電子デバイス(例えば、101)のユーザの視線(例えば、716p)がコンテンツアイテムの第1の部分(例えば、704a)に向けられていると判定する前に、電子デバイス(例えば、101)は、表示生成コンポーネント120を介して、図7B(例えば、電子デバイスは、第1のコンテンツ領域に第1のコンテンツアイテムの第1の部分を表示している間に、コンテンツアイテムの複数の部分を表示する)のように、第1の値を有する視覚特性で1つ以上の他のコンテンツアイテムを表示する(826)。
いくつかの実施形態では、ユーザの視線(例えば、716p)の動きが、ユーザがコンテンツアイテムの第1の部分(例えば、704a)を読んでいることを示しているという判定に従って(828)、図7Cのように、ユーザの視線(例えば、716p)がコンテンツアイテムの第1の部分(例えば、704b)に向けられていると判定したことに応じて(830)、電子デバイス(例えば、101)は、図7Cのように、第1の値とは異なる第2の値を有する視覚特性で1つ以上の他のコンテンツアイテムを表示するようにユーザインタフェースを更新する(832)。いくつかの実施形態では、第2のコンテンツ領域内に第1のコンテンツアイテムを表示している間、電子デバイスは、縮小されたサイズ、減少された不透明度、より暗い、又はより低いコントラスト又は飽和色、及び/又は減少された明瞭性(例えば、より大きいぼやけ)を有する他の(例えば、拡張されていない)コンテンツアイテムを表示する。
電子デバイスは、ユーザが読んでいるコンテンツアイテムを拡張する前に、完全なサイズ、完全な不透明度、完全な色、及び/又は完全な明瞭性を有する複数のコンテンツアイテムを任意選択で表示する。第2のコンテンツ領域の第1のコンテンツアイテムは、任意選択的に、完全な不透明度、完全な色、及び/又は完全な明瞭性で表示される。いくつかの実施形態では、ユーザがコンテンツアイテムの第1の部分を読んでいない及び/又はユーザがコンテンツアイテムの第1の部分を見ていないという判定に従って、電子デバイスは、第1の値を有する視覚特性で1つ以上のコンテンツアイテムを表示し続ける。
ユーザがコンテンツアイテムを読んでいることを検出したことに応じて、1つ以上の他のコンテンツアイテムが表示される視覚特性の値を変更する上記の方法は、ユーザが第2のコンテンツ領域内のコンテンツアイテムを読んでいる間に電子デバイスが視覚的クラッタを低減することを可能にし、拡張されたコンテンツアイテムを読むために気が散ることを低減し、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
図7B~7Cなどのいくつかの実施形態では、視覚特性は、透明度(例えば、不透明度及び/又は明瞭性)であり、第1の値は、第2の値よりも低い透明度に対応する(834)。いくつかの実施形態では、電子デバイスが第2のコンテンツ領域に第1のコンテンツアイテムを表示している間、他のコンテンツアイテムの不明瞭性及び/又は明瞭性は減少される(例えば、ぼやけている)。
ユーザがコンテンツアイテムを読んでいることを検出したことに応じて1つ以上の他のコンテンツアイテムの透明度を高める上述の方法は、ユーザが読んでいるコンテンツアイテムから注意を逸らさない方法で電子デバイスが他のコンテンツアイテムを表示し続けることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが第2のコンテンツ領域を破棄することなく他のコンテンツアイテムを見ることを可能にすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
図7B~図7Cなどのいくつかの実施形態では、視覚特性はサイズであり、第1の値は第2の値よりも大きいサイズに対応する(836)。いくつかの実施形態では、電子デバイスは、電子デバイスが第1のコンテンツアイテムを第2のコンテンツ領域に表示している間に、他のコンテンツアイテムのサイズを縮小する。いくつかの実施形態では、第2のコンテンツ領域内のコンテンツは、第1のコンテンツ領域内の元のコンテンツと同じサイズで表示される。
ユーザがコンテンツアイテムを読んでいることを検出したことに応じて他のコンテンツアイテムのサイズを縮小する上記の方法は、ユーザがコンテンツアイテムを読んでいる間、電子デバイスが他のコンテンツアイテムをユーザの気を散らしにくい方法で表示し続けることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、コンテンツをより速く読むことと、ユーザが第2のコンテンツ領域から離れるようにナビゲートすることなく、他のコンテンツアイテムを見ることとを可能にすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザインタフェースは、図7Bに示すように、第3のコンテンツ領域を更に含み、第3のコンテンツ領域は、第2のコンテンツアイテムの第1の部分(例えば、704b)を含む(838)(例えば、第3のコンテンツ領域は第1のコンテンツ領域と同時に表示される)。第2のコンテンツアイテムは、任意選択的に、テキストコンテンツを含む。
図7Cのようないくつかの実施形態では、第2のコンテンツ領域(例えば、714)を含むようにユーザインタフェースを更新することは、第3のコンテンツ領域上に重ね合わされた第2のコンテンツ領域(例えば、714)を表示することを含む(840)。いくつかの実施形態では、第2のコンテンツ領域を表示する前に、電子デバイスは、第1のコンテンツアイテムの第1の部分及び第2のコンテンツアイテムの第1の部分を含む複数のコンテンツアイテムの部分を含むコンテンツ閲覧ユーザインタフェースを表示する。電子デバイスは、コンテンツ閲覧ユーザインタフェース上に重ね合わされた第1のコンテンツアイテムの第1及び第2の部分を含む第2のコンテンツ領域を任意選択で表示する。
第3のコンテンツ領域に重ね合わされた第2のコンテンツ領域を表示する上述の方法は、ユーザがコンテンツアイテムを読んでいる間、電子デバイスが、視覚的にユーザの気を散らしにくい方法で第3のコンテンツ領域を表示し続けることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツアイテムをより迅速に読むことを可能にすると同時に、第2のコンテンツ領域から離れるようにナビゲートすることなく第3のコンテンツ領域を見続けることによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザの視線の動きが、電子デバイスのユーザはコンテンツアイテムの第1の部分(例えば、704a)を読んでいることを示すと判定する前に、図7Bのように、第1のコンテンツ領域(例えば、700)及び第3のコンテンツ領域は、ユーザインタフェース内の第1のz高さに表示され(例えば、他のコンテンツが第1及び第3のコンテンツ領域上に重ならないような上部高さ)、第2のコンテンツ領域(例えば、714)を含むようにユーザインタフェースを更新することは、図7Cのように、第2のコンテンツ領域(例えば、714)をユーザインタフェース内の第1のz高さに表示することと、第3のコンテンツ領域のz高さをユーザインタフェース内の第2のz高さに変更することとを含む(842)。いくつかの実施形態では、第2のz高さは、第1のz高さよりも低い(例えば、ユーザインタフェースに更に戻って)。電子デバイスは、任意選択的に、ユーザがコンテンツを読んでいることを検出したことに応じて、第3のコンテンツ領域に重ね合わされ、第1のコンテンツ領域が表示されたのと同じz高さに第2のコンテンツ領域を表示する。いくつかの実施形態では、電子デバイスはまた、第1のコンテンツ領域上に重ね合わされた第2のコンテンツ領域を表示し、第1のコンテンツ領域をより低いz高さに移動させる。
ユーザがコンテンツアイテムを読んでいることを検出したことに応じて、第1のコンテンツ領域を第3のコンテンツ領域と同じzレベルで表示し、第2のコンテンツ領域を第3のコンテンツ領域よりも高いzレベルで表示する上述の方法は、ユーザがコンテンツアイテムを読んでいる間、電子デバイスが、視覚的にユーザの気を散らしにくい方法で第3のコンテンツ領域を表示し続けることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツアイテムをより迅速に読むことを可能にすると同時に、第2のコンテンツ領域から離れるようにナビゲートすることなく第3のコンテンツ領域を見続けることによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
図7Cのようないくつかの実施形態では、第2のコンテンツ領域(例えば、714)を含むようにユーザインタフェースを更新することは、第2のコンテンツ領域(例えば、714)になるように第1のコンテンツ領域のサイズを拡張することを含む(844)。いくつかの実施形態では、コンテンツ領域は、1つ以上の寸法で拡張する。例えば、第2のコンテンツ領域は第1のコンテンツ領域よりも長く、電子デバイスが第1のコンテンツ領域よりも第2のコンテンツ領域に多くの第1のコンテンツアイテムを表示することを可能にする。いくつかの実施形態では、コンテンツ領域の高さ及び幅が拡張される。いくつかの実施形態では、第2のコンテンツ領域は、第1のコンテンツ領域が表示されたユーザインタフェース内の同じzレベルに表示される。
第1のコンテンツ領域を第2のコンテンツ領域になるように拡張する上述の方法は、電子デバイスが視覚的連続性を維持しながら第2のコンテンツ領域にコンテンツアイテムの追加部分を表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、第1のコンテンツ領域と第2のコンテンツ領域との間の明確なナビゲーション連続性を提供することによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第2のコンテンツ領域(例えば、714)を含むようにユーザインタフェースを更新することは、ユーザがコンテンツアイテムの第1の部分(例えば、704a)を読み続けている間に、第1のコンテンツ領域を徐々にアニメーション化して第2のコンテンツ領域(例えば、714)に変化させることを含む(846)。いくつかの実施形態では、アニメーションの進行は、ユーザが第1のコンテンツアイテムを連続的に読んでいる時間量に比例する。例えば、ユーザは、第1のコンテンツアイテムの第1の部分を読み始め、アニメーションが開始し、ユーザが読み続けると、アニメーションは進行し続ける。いくつかの実施形態では、アニメーションは、開始後に所定の持続時間を有する。第2のコンテンツ領域に変化する第1のコンテンツ領域をアニメーション化することは、任意選択的に、第1のコンテンツ領域と第2のコンテンツ領域との間の1つ以上の差の進行をアニメーション化することを含む。例えば、第1のコンテンツ領域のサイズは、第1のコンテンツ領域よりも大きい第2のコンテンツ領域になるように徐々に拡大する。いくつかの実施形態では、ユーザがコンテンツアイテムの読み取りを停止すると、アニメーションは停止又は反転する。
ユーザがコンテンツアイテムを読み続けると、第2のコンテンツ領域に変化する第1のコンテンツ領域を徐々にアニメーション化する上記の方法は、電子デバイスが、コンテンツアイテムの第1の部分を読むと第1のコンテンツ領域が第2のコンテンツ領域に変化するというフィードバックをユーザに提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、コンテンツアイテムの読み取りを停止すること、及び/又はコンテンツアイテムから目を離すことによって、例えばユーザに遷移を停止する機会を与えることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第2のコンテンツ領域(例えば、714)を含むようにユーザインタフェースを更新している間又は後に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、図7Cのように、電子デバイスのユーザの視線(例えば、716c)がもはやコンテンツアイテムに向けられていないと判定する(848)(例えば、電子デバイスは、ユーザがコンテンツアイテムを含まないユーザインタフェースの部分(例えば、第2のコンテンツ領域以外の領域)を見ていること、又はユーザがユーザインタフェースから目を離していることを検出する)。例えば、ユーザは、第1のコンテンツアイテムが重ね合わされた異なるコンテンツアイテムを見ている。
いくつかの実施形態では、図7Cのように、電子デバイス(例えば、101)のユーザの視線(た、716c)がもはやコンテンツアイテムに向けられていないと判定したことに応じて、電子デバイス(例えば、101)は、図7Bのように、第2のコンテンツ領域(例えば、714)を表示することなく、第1のコンテンツ領域(例えば、700)を含むユーザインタフェースを表示する(850)。
例えば、第1のコンテンツ領域は、コンテンツアイテムの第1の部分に加えて他のコンテンツアイテムの部分を含むコンテンツ閲覧ユーザインタフェースに表示され、コンテンツアイテムから目を離すユーザを検出したことに応じて、電子デバイスは、その初期サイズ、zレベル、及び/又は外観でコンテンツ閲覧ユーザインタフェースを再び表示する。したがって、電子デバイスは、任意選択的に、コンテンツアイテムの大部分を第2の領域に表示する代わりに、コンテンツアイテムの部分を第1のコンテンツ領域(例えば、コンテンツアイテムの第1の部分、又はユーザがコンテンツアイテムから目を離す前に最後に読んだコンテンツアイテムの部分)に表示する。
ユーザがもはやコンテンツアイテムを見ていないことを検出したことに応じて、第2のコンテンツ領域を表示せずに第1のコンテンツ領域を含むようにユーザインタフェースを戻す上記の方法は、ユーザの視線に応じて電子デバイスが追加の入力なしに第1のコンテンツ領域に戻ることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、第1のコンテンツ領域を再度閲覧するように要求するためにユーザが必要とする入力の数を減らすことによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第2のコンテンツ領域(例えば、314)を含むようにユーザインタフェースを更新している間又は後に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、図7Cのように、ユーザの視線の動きが、電子デバイスのユーザがコンテンツアイテムを読んでいることをもはや示していないと判定する(852)(例えば、いくつかの実施形態では、ユーザは、コンテンツアイテムを見続けたり、ユーザは、ユーザインタフェースの異なる領域(例えば、第2のコンテンツ領域以外の領域)を見たり、ユーザインタフェースから目を離すなど、コンテンツアイテムから目を離したりする)。
いくつかの実施形態では、ユーザの視線の動きが、電子デバイス(例えば、101)のユーザがコンテンツアイテムを読んでいることをもはや示していないと判定したことに応じて、電子デバイス(例えば、101)は、図7Bのように、第2のコンテンツ領域を表示することなく、第1のコンテンツ領域(例えば、700)を含むようにユーザインタフェースを元に戻す(854)。例えば、第1のコンテンツ領域は、コンテンツアイテムの第1の部分に加えて他のコンテンツアイテムの部分を含むコンテンツ閲覧ユーザインタフェースに表示され、ユーザがコンテンツアイテムをもはや読んでいないことを検出したことに応じて、電子デバイスは、その初期サイズ、zレベル、及び/又は外観でコンテンツ閲覧ユーザインタフェースを再び表示する。したがって、電子デバイスは、任意選択的に、コンテンツアイテムの大部分を第2の領域に表示する代わりに、コンテンツアイテムの部分を第1のコンテンツ領域(例えば、コンテンツアイテムの第1の部分、又はユーザがコンテンツアイテムを読むことを停止する前に最後に読んだコンテンツアイテムの部分)に表示する。
ユーザがもはやコンテンツアイテムを読んでいないことを検出したことに応じて、第2のコンテンツ領域を表示せずに第1のコンテンツ領域を含むようにユーザインタフェースを戻す上記の方法は、ユーザの視線に応じて電子デバイスが追加の入力なしに第1のコンテンツ領域に戻ることを可能にし、それにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、第1のコンテンツ領域を再度閲覧するように要求するためにユーザが必要とする入力の数を減らすことによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Bのように、ユーザの視線(例えば、716p)の動きが、ユーザがコンテンツアイテムの第1の部分(例えば、704a)を読んでいることを示しているという判定は、視線トラッキングデバイス(例えば、314)を用いて、テキストを読んでいることに対応するユーザの目の動きを検出することに基づく(856)。いくつかの実施形態では、電子デバイスは、ユーザの視線がテキストの言語を読む方向にテキストの行に沿って移動し(例えば、英語の場合は左から右、ヘブライ語の場合は右から左など)、次いで、次の行へ下を見る前にユーザがちょうど読んだ行に沿って反対方向に素早く(例えば、テキストの言語の方向よりも速く)移動するのを検出することによって、ユーザがコンテンツを読んでいることを検出する。任意選択的に、電子デバイスは、ユーザがテキストの行の全ての単語又は全ての文字を直接見なくても、人が任意選択的に、テキストの行の各文字又は更には各単語を直接見ないで読むので、ユーザが読んでいることを検出する。いくつかの実施形態では、電子デバイスは、ユーザがちょうど読んでいたテキストラインに沿った逆方向へのユーザの視線の動きを検出することによって、ユーザがテキストの行を読み終わったことを検出することができる。
ユーザの目の動きに基づいてユーザがコンテンツを読んでいることを検出する上記の方法は、電子デバイスが、他の入力なしに、ユーザが読んでいるという判定を使用してユーザインタフェースをナビゲートすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザインタフェースをナビゲートするのに必要な入力を低減することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、電子デバイス(例えば、101)は、図7Aに示すように、電子デバイス(例えば、101)で、通知イベントのインジケーション(例えば、708)を検出する(858)(例えば、電子デバイスにアクセス可能なアプリケーションによって生成された警告)。例えば、電子デバイスに関連付けられたユーザアカウント以外のユーザアカウントからのメッセージの受信は、通知イベントの1つのタイプ、電話又はビデオ通話の受信などである。
図7Aなどのいくつかの実施形態では、通知イベントのインジケーション(例えば、708)を検出したことに応じて(860)、ユーザの視線の動きが、ユーザがユーザインタフェース内のコンテンツアイテムを読んでいないことを示しているという判定に従って(例えば、電子デバイスは、視線トラッキングデバイスを使用して、ユーザが表示生成コンポーネントによって提示されたコンテンツのいずれも読んでいないと判定する。いくつかの実施形態では、ユーザはそのコンテンツを読むことなく単にユーザインタフェース内のコンテンツを見ており)、電子デバイス(例えば、101)は、電子デバイス(例えば、101)で、通知イベント(例えば、インジケーションは、通知イベントに関連付けられたテキスト、サウンド、及び/又は触覚フィードバックを含む画像を含む)のインジケーション(例えば、706)(例えば、オーディオ、ビジュアルなど)を生成する(862)。
図7Cなどのいくつかの実施形態では、ユーザの視線の動き(例えば、716b)が、ユーザがユーザインタフェース内のコンテンツアイテムを読んでいることを示しているという判定に従って、電子デバイス(例えば、101)は、通知イベントのインジケーションの生成を取り止める(864)。いくつかの実施形態では、ユーザが読んでいる間、通知イベントのインジケーションは提示されない。ユーザが読み取りを停止したことの検出(例えば、視線トラッキングコンポーネントを介して)に応じて、電子デバイスは、任意選択的に、ユーザが読んでいる間に検出された通知イベントのインジケーション(例えば、以前に抑制された全てのインジケーション、以前に抑制された最後のインジケーションなど)を提示する。
気が散ることなく電子デバイスがコンテンツを提供するために、ユーザがコンテンツを読んでいる間に通知のインジケーションを提示することを取り止める上記の方法により、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより短い時間で読むことを可能にすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザの視線がコンテンツアイテム の第1の部分(例えば、704a)に向けられている(例えば、視線トラッキングデバイスを介して)との判定に応じて(866)、図7B(例えば、視線トラッキングデバイスを介して)のように、ユーザの視線(例えば、716p)の動きが、ユーザがコンテンツアイテムの第1の部分を読んでいることを示しているという判定に従って(868)、電子デバイス(例えば、101)は、ユーザがコンテンツアイテムを読み続けると、第2のコンテンツ領域の所定の部分をユーザインタフェースの第1の位置からユーザインタフェースの第2の位置に移動させる(870)。
いくつかの実施形態では、電子デバイスは、第2のコンテンツ領域(例えば、第2のコンテンツ領域の垂直及び/又は水平中心)を表示生成コンポーネントの表示領域の中心(例えば、垂直中心及び/又は水平中心)に移動させる。第2のコンテンツ領域の所定の部分は、任意選択的に、コンテンツアイテムのテキスト、画像、又は他のコンテンツを含む。したがって、いくつかの実施形態では、第1のコンテンツ領域は、ユーザインタフェース内の第2の位置以外の位置(例えば、ユーザインタフェース内の第1の位置に表示される)に表示され、第2のコンテンツ領域は、ユーザインタフェース内の第1の位置における第1のコンテンツ領域の拡張を介して表示され、ユーザがコンテンツアイテムを読み続けると、デバイスは、第2のコンテンツ領域がユーザインタフェース内の第2の位置に移動するようにユーザインタフェース/ディスプレイをシフトする。いくつかの実施形態では、ユーザがコンテンツアイテムの第1の部分を読むことなく、コンテンツアイテムの第1の部分を見ているという判定に従って、電子デバイスは、第2のコンテンツ領域の移動を取り止める。
ユーザがコンテンツアイテムを読み続けるときに第2のコンテンツ領域の所定の部分をユーザインタフェース内の第2の位置に移動させる上述の方法は、電子デバイスがユーザインタフェース内の人間工学的な位置にコンテンツアイテムを表示することを可能にし、ユーザがコンテンツを読むことをより容易にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより速く読むことを可能にすることによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第2のコンテンツ領域をユーザインタフェース内の第1の位置からユーザインタフェース内の第2の位置に移動させることは(872)、ユーザがコンテンツアイテムの第1の部分を読んだことを検出したことに応じて、第2のコンテンツ領域を第1の位置から第2の位置への移動の第1の部分に移動させること(874)(例えば、ユーザがコンテンツアイテムの第1の部分の第1の部分を読んだことを検出したことに応じて、第2のコンテンツ領域を第1の量だけ最初に移動させる)と、第2のコンテンツ領域を第1の位置から第2の位置への移動の第1の部分に移動させた後、ユーザがコンテンツアイテムの第2の部分を読んだことを検出したことに応じて、第2のコンテンツ領域を第1の位置から第2の位置への移動の第2の部分に移動させること(例えば、ユーザがコンテンツアイテムの第1の部分の第2の部分を読んだことを検出したことに応じて、第2のコンテンツ領域を第2の量だけ移動させること)と(876)を含む。
いくつかの実施形態では、電子デバイスは、ユーザが読んだ第1のコンテンツアイテムの量又はユーザが第1のコンテンツアイテムの第1の部分を読むのに費やした時間の量に比例する量だけ第2のコンテンツ領域を移動させる。いくつかの実施形態では、コンテンツ領域を移動させることは、コンテンツ領域の境界を移動させることを含む。いくつかの実施形態では、コンテンツ領域を移動させることは、コンテンツ領域自体の境界を移動させることなく、コンテンツ領域内でコンテンツを移動させることを含む。
ユーザが読んだコンテンツの量に比例する量だけ第2のコンテンツ領域をユーザインタフェース内の第2の位置に移動させる上述の方法は、電子デバイスが視覚的連続性を伴って第2のコンテンツ領域を効率的に移動させることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、入力を減らすことによって、ユーザは、ユーザインタフェース内の第2の位置への第2のコンテンツ領域の移動を引き起こすように試みることができる)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザの視線がコンテンツアイテムの第1の部分に向けられている間、かつ第2のコンテンツ領域が表示される前に、コンテンツアイテムの第1の部分はユーザインタフェース内の第1の位置に表示され、第2のコンテンツ領域を含むようにユーザインタフェースを更新することは、ユーザインタフェース内の第1の位置で、第2のコンテンツ領域内のコンテンツアイテムの第1の部分の表示を維持することを含む(878)。いくつかの実施形態では、第2のコンテンツ領域の位置は、コンテンツアイテムの第1の部分が移動しないような外観を与えるように選択される。コンテンツアイテムの第1の部分は、任意選択的に、表示生成コンポーネントの同じ位置に表示されるか、又は任意選択的に、ユーザの頭部の動き又は視線に追従するように表示される。
コンテンツアイテムの第1の部分を第1のコンテンツ領域及び第2のコンテンツ領域内のユーザインタフェース内の同じ位置に表示する上述の方法は、電子デバイスが、コンテンツアイテムの第1の部分を移動させることなくコンテンツアイテムの第1の部分を表示することを可能にし、したがって視覚的連続性を維持し、コンテンツアイテムをユーザにとってより読みやすくし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツアイテムをより速く読むことを可能にすることによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Bなどのように、第1のコンテンツ領域(例えば、700)内のコンテンツアイテムの第1の部分は、第1のサイズを有するユーザインタフェースのエリアを占有し、図7Cなどのように、第2のコンテンツ領域(例えば、714)内のコンテンツアイテムの第1の部分は、第1のサイズを有するユーザインタフェースのエリアを占有する(880)。いくつかの実施形態では、コンテンツのサイズは、第1のコンテンツ領域の表示から第2のコンテンツ領域に遷移するときに同じままである。いくつかの実施形態では、コンテンツの幅は同じままであり、長さは変化する(例えば、より多くのコンテンツを縦に表示するために)。例えば、コンテンツの第2の部分は、コンテンツの第1の部分の下に表示され、コンテンツをより長くする。いくつかの実施形態では、コンテンツの幅及び長さは、第1のコンテンツ領域に表示されている状態から第2のコンテンツ領域に表示されている状態に遷移するときに変化する。
第1のコンテンツ領域及び第2のコンテンツ領域において同じサイズで第1のコンテンツアイテムの第1の部分を表示する上述の方法は、電子デバイスが、第1のコンテンツ領域を含むことから第2のコンテンツ領域を表示することへユーザインタフェースを遷移させている間に、ユーザにとって読みやすい方法でコンテンツアイテムの第1の部分を表示し続けることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより速く読むことを可能にすることによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
図9A~図9Lは、いくつかの実施形態による、ユーザがコンテンツアイテムを読んでいるという判定に従ってコンテンツアイテムのテキストをスクロールする方法900を示すフローチャートである。いくつかの実施形態では、方法900は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法900は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法900の一部の動作が任意選択的に組み合わされ、及び/又はいくつかの動作の順序が任意選択的に変更される。
方法900では、いくつかの実施形態では、表示生成コンポーネント(例えば、120)及び視線トラッキングデバイス(例えば、314)(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ)、コンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータ)、又はウェアラブルデバイス(例えば、ウォッチ、頭部装着型デバイス)と通信する電子デバイス(例えば、101)(例えば、コンピューティングシステム(例えば、101))は、表示生成コンポーネント(例えば、120)を介して、図7Cのように、コンテンツアイテムのテキストの第1の部分(例えば、724a)及びコンテンツアイテムのテキストの第2の部分(例えば、724b)を含むユーザインタフェースを表示し(902)、テキストの第1の部分(例えば、724a)は、ユーザインタフェースの第1の位置(例えば、722a)に表示され、テキストの第2の部分(例えば、724b)は、ユーザインタフェースの第2の位置(例えば、722b)に表示される(例えば、テキストの第1の部分はテキストの第1の行であり、テキストの第2の部分はテキストの第1の行の下のテキストの第2の行である)。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイスは、視線トラッキングデバイスを介して、ユーザの視線の動きが、ユーザがテキストの第1の部分を読んでいることを示していると判定する(例えば、視線トラッキングデバイスは、図6を参照してより詳細に上述したように、ユーザの目の1以上の画像を任意選択的にキャプチャし、キャプチャされた1つ以上の画像内の瞳孔及びグリントを検出して、ユーザの視線の位置を判定する)(904)。
いくつかの実施形態では、ユーザの視線(例えば、716b)の動きが、ユーザがテキストの第1の部分(例えば、724a)を読んでいることを示している間(906)(例えば、電子デバイスが、テキストの第1の部分の読み取りと一致する目の動きを検出し続けている間)に、図7Cのように(例えば、ユーザがテキストの第1の部分の最後まで読んでおり、テキストの第2の部分を見始めていることを検出すること)、ユーザの視線(例えば、716b)の動きが、ユーザがテキストの第1の部分(例えば、724a)を読み終わったことを示すという判定に従って、電子デバイス(例えば、101)は、図7Dのように、テキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールする(910)(例えば、ユーザの視線が向けられる位置に向かって、テキストの第1の部分によって以前に占有された位置に向かって、又はユーザインタフェースの中心などのユーザインタフェースの所定の部分に向かって)(例えば、ユーザインタフェース内の現在のスクロール位置になるようにテキストの第2の部分をスクロールする)。
いくつかの実施形態では、ユーザの視線の動きが、ユーザが、図7Cのテキストの第1の部分(例えば、724a)を読み終わっていないことを示すという判定に従って(例えば、ユーザは依然としてテキストの第1の部分を読んでいるか、又はテキストの第1の部分を終了せずにテキストの第1の部分から目を離している)、電子デバイス(例えば、101)は、図7Cのように、テキストの第1の部分(例えば、724a)を第1の位置(例えば、722a)に維持する(914)(例えば、ユーザインタフェースのスクロールを取り止める)。
いくつかの実施形態では、表示生成コンポーネントは、電子デバイス(任意選択的にタッチスクリーン)及び/又はモニタ、プロジェクタ、テレビなどの外部ディスプレイと統合されたディスプレイである。いくつかの実施形態では、視線トラッキングデバイスは、1つ以上のカメラ(単数又は複数)(例えば、IRカメラ、NIRカメラ、可視光カメラなど)を含む。
例えば、テキストは、垂直にスクロール可能である。いくつかの実施形態では、テキストの第1の部分は、テキストの行の第1のセクションであり、テキストの第2の部分は、テキストの行の第1のセクションの右(例えば、左から右に読む言語の場合)又は左(例えば、右から左に読む言語の場合)に表示されるテキストの行の第2のセクションであり、テキストは水平方向にスクロール可能である。ユーザインタフェース内の現在のスクロール位置は、任意選択的に、ユーザインタフェースの残りの部分に対して固定されたユーザインタフェース内の位置である(例えば、ユーザインタフェースのウィンドウ内の固定位置)。いくつかの実施形態では、現在のスクロール位置は、ユーザが正面を見ることによって見ることができる位置(例えば、首を曲げずに、目を中立的な高さで真っ直ぐ前を見ることを可能にしながら)など、人間工学的に使いやすいように選択される。いくつかの実施形態では、電子デバイスは、ユーザインタフェースに対するユーザの頭部の動きを検出したことに応じて、現在のスクロール位置の位置を変更する。例えば、ユーザがデスクトップコンピュータに結合されたモニタ上のコンテンツを読んでおり、モニタに対して頭部(又は胴体又は身体を動かして、頭部を動かす)を動かす場合、現在のスクロール位置は、任意選択的に、ユーザの頭部の動きと共に動く。いくつかの実施形態では、テキストの第1の部分の位置は、ユーザの頭部の位置及び向きの検出に基づいて、ユーザにとって人間工学的に使いやすいように選択される。例えば、テキストの第1の部分は、頭部及び/又は目が中立位置にある間にユーザが見ることができる位置に表示される。
更に、いくつかの実施形態では、電子デバイスは、ユーザの目の検出された動きに基づいて、ユーザが単にテキストの第1の部分を見ているかどうか、又はユーザがテキストアイテムの第1の部分を読んでいるかどうかを検出することができる。電子デバイスは、任意選択的に、ユーザの目の1つ以上のキャプチャ画像を比較して、ユーザの目の動きが読み取りと一致する動きと一致するかどうかを判定する。
例えば、ユーザがテキストの行全体を読んでおり、第2のテキストの行の先頭を見るために目を動かしていることを検出する。
例えば、電子デバイスは、テキストの第1の部分が以前に表示された高さでテキストの第2の部分を表示するために、テキストを垂直にスクロールする。別の例として、電子デバイスは、テキストの第1の部分が以前に表示されていた水平位置にテキストの第2の部分を表示するために、テキストを水平方向にスクロールする。テキストの第2の部分の第2のスクロール位置を更新することは、任意選択的に、テキストの第1の部分の位置を更新すること(例えば、テキストの第2の部分のための空間を作るために、テキストの第1の部分を垂直又は水平に移動させる)、又はテキストの第1の部分の表示を停止することを含む。いくつかの実施形態では、ユーザスクロール位置の更新は、電子デバイスと通信する別の入力デバイスから追加の入力を受信することなく、視線トラッキングコンポーネントによって収集されたデータに応じて実行される。
いくつかの実施形態では、電子デバイスは、ユーザインタフェース内のそれぞれの位置にテキストの第1及び第2の部分を表示し続ける。
ユーザがテキストの第1の部分を読み終えたことを検出したことに応じてコンテンツアイテムのスクロール位置を更新する上記の方法は、ユーザが視線トラッキングデバイス以外の入力デバイスからの入力を受信することなく、電子デバイスがユーザが読んでいる速度でスクロールすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、スクロールの量の多すぎ又は少なすぎることにおけるユーザエラーを低減し、他の入力デバイスからの入力の必要性を回避することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって及び/又はユーザ入力エラーを削減することによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線が図7Cに示すテキストの第1の部分(例えば、724a)又はテキストの第2の部分(例えば、724b)に向けられているが、ユーザの視線の動きが、ユーザがテキストの第1の部分又はテキストの第2の部分を読んでいないことを示すと判定する(916)(例えば、ユーザの目の動きが読み取りを示す目の動きに対応していない)。
いくつかの実施形態では、ユーザの視線がテキストの第1の部分(例えば、724a)又はテキストの第2の部分(例えば、724b)に向けられているが、ユーザの視線の動きが、ユーザが図7Cに示されるテキストの第1の部分又はテキストの第2の部分を読んでいないことを示すと判定したことに応じて、電子デバイス(例えば、101)は、テキストのスクロールを取り止める(918)。いくつかの実施形態では、ユーザがテキストを読んでいることを検出したことに応じて、電子デバイスは、テキストをスクロールし、ユーザがテキストを読むことなくテキストを見ていることを検出したことに応じて、電子デバイスは、テキストのスクロールを取り止める(例えば、テキストは、ユーザインタフェース内の現在の位置に留まる)。
ユーザがテキストを読まずにテキストを見ていることを検出したことに応じてテキストのスクロールを取り止める上記の方法は、電子デバイスが不要なスクロールを回避することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、不要なスクロールを元に戻す入力の必要性を低減することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線がもはや図7Cに示すテキスト(例えば、724a)の第1の部分(例えば、724a)に向けられていないと判定する(920)(例えば、ユーザは、テキストの第2の部分を見始めるか、又はユーザインタフェースの任意の他の部分を見るか、又はユーザインタフェースから目を離したりするなど、ユーザインタフェースの異なる部分を見る)。
いくつかの実施形態では、ユーザの視線がもはや図7Cに示されるテキストの第1の部分(例えば、724a)に向けられていないとの判定に応じて(922)、ユーザがテキストの第1の部分(例えば、724a)を読むことなくテキストの第1の部分(例えば、724a)をざっと読むテキストの第1の部分上のユーザの視線の動きに基づいて検出された判定に従って、電子デバイス(例えば、101)は、テキストのスクロールを取り止める(924)(例えば、ユーザインタフェース内の同じ位置にテキストの第1の部分及び第2の部分を表示し続ける)。いくつかの実施形態では、ユーザがテキストをざっと読んでいる(又は流し読み)間、ユーザの目の動きは、一般に人々がテキストを読むのとは異なる方法でテキストを流し読みするので、テキストを読むことを示す動きに対応しない。
いくつかの実施形態では、図7Cのように、ユーザがテキストの第1の部分(例えば、724a)を読んだテキストの第1の部分(例えば、724a)上のユーザの視線(例えば、716b)の動きに基づいて検出された判定に従って、電子デバイス(例えば、101)は、テキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールする(926)。いくつかの実施形態では、電子デバイスは、ユーザがテキストを読んでいることを検出したことに応じてテキストをスクロールし、ユーザがテキストをざっと読み又は流し読みしていることを検出したことに応じてテキストをスクロールするのを取り止める。
ユーザがテキストをざっと読んでいることを検出したことに応じてテキストをスクロールすることを取り止める上記の方法は、電子デバイスが、ユーザがテキストをざっと読んでいる間は不規則であり得る、ユーザがテキストのスクロール速度を制御することを可能にすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、スクロールエラー及びエラーを修正するのに必要な入力を減らすために、異なる状況でテキストをスクロールする直感的な方法を提供することによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、図7Cに示す検出されたテキストの第1の部分(例えば、724a)上のユーザの視線の動きに基づいて、ユーザがテキストの第1の部分(例えば、724a)をざっと読んでいると判定する(928)(例えば、ユーザがテキストをざっと読んでいる間、ユーザの視線はテキストを横切って移動するが、読むことを示す目の動きパターンと一致しない)。
いくつかの実施形態では、ユーザがテキストの第1の部分(例えば、724a)をざっと読むことを終了したという判定に従って、電子デバイス(例えば、101)は、図7C~図7Dのように、テキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールする(930)。いくつかの実施形態では、電子デバイスは、ユーザがテキストを読むか又はざっと読むかのいずれかであることを検出したことに応じて、テキストをスクロールする。いくつかの実施形態では、ユーザがテキストの第1の部分をまだざっと読んでいないという判定に従って、電子デバイスはテキストをスクロールすることを取り止める。
読む又はざっと読むことに応じてテキストをスクロールする上記の方法は、ユーザが視線位置以外のユーザ入力を必要とせずにざっと読んでいるときに電子デバイスがテキストを効率的にスクロールすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、テキストをスクロールするのに必要な入力を減らすことによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cに示されるテキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールすることは、ユーザがテキストの第1の部分(例えば、724a)の終わりに到達し、テキストの第2の部分(例えば、724b)の先頭に向かう方向に目を動かしていることを検出したことに応じている(932)。
例えば、テキストの第2の部分の先頭は、テキストの(例えば、次)行の最初の単語である。いくつかの実施形態では、電子デバイスは、テキストを読んでいるユーザに対応する目の動きを検出する。読み取りに対応する目の動きは、任意選択的に、ユーザがテキストの行を読むときに単語又は単語の一部を見ているテキストの方向(例えば、英語の場合は左から右)への目の動き、続いて、ユーザがちょうど読んだ行に沿ってテキストの反対方向(例えば、英語の場合は右から左)へ、次いで、次の行の先頭へ下がる目の動きを含む。いくつかの実施形態では、スクロールは、ユーザがちょうど読んだ行に沿ったテキストの反対方向へのユーザの目の動きを検出したことに応じて、及び/又はテキストの次の行の先頭へ下がるユーザの目の動きを検出したことに応じて実行される。
テキストの第2の部分の先頭に向かう目の動きを検出したことに応じてテキストをスクロールする上述の方法は、ユーザがテキストの1つ以上の単語を能動的に読んでいない間に電子デバイスがテキストを一度にスクロールすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザを混乱させないように、又はコンテンツ内の自分の位置を失わせないようにスクロールすることによって)、それにより、ユーザがコンテンツをより迅速に読むことを可能にするなど、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cに示されるテキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールすることは、ユーザがテキストの第2の部分(例えば、724b)の先頭に向かう方向に目を移動させている間に発生する(934)。
例えば、テキストの第2の部分の先頭は、テキストの行の最初の単語である。いくつかの実施形態では、電子デバイスは、テキストを読んでいるユーザに対応する目の動きを検出する。読み取りに対応する目の動きは、任意選択的に、ユーザがテキストの行を読むときに単語又は単語の一部を見ているテキストの方向(例えば、英語の場合は左から右)への目の動き、続いて、ユーザがちょうど読んだ行に沿ってテキストの反対方向(例えば、英語の場合は右から左)への目の動きを含む。いくつかの実施形態では、スクロールは、ユーザがテキストの標準的な読み取り方向の反対方向にちょうど読んだ行に沿ったユーザの目の動きを検出したことに応じて、かつユーザがテキストの反対方向にちょうど読んだ行に沿ってユーザが目を動かしている間に実行される。
ユーザの目がテキストの第2の部分の先頭に向かって移動している間にテキストをスクロールする上記の方法は、ユーザの目がテキストの行の先頭に戻った時点までに、次の行のテキストの先頭がその位置に表示されるように、電子デバイスがテキストを一度にスクロールすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザを混乱させないように、又はコンテンツ内の自分の位置を失わせないようにスクロールすることによって)、それにより、ユーザがコンテンツをより迅速に読むことを可能にするなどによって、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cに示されるテキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールすることにより、テキストの第2の部分(例えば、724b)は、ユーザが目をテキストの第2の部分(例えば、724b)の先頭に向かう方向に動かす間に見るユーザインタフェース内の位置に表示される(936)。
例えば、テキストの第2の部分の先頭は、テキストの行の最初の単語である。いくつかの実施形態では、電子デバイスは、テキストを読んでいるユーザに対応する目の動きを検出する。読み取りに対応する目の動きは、任意選択的に、ユーザがテキストの行を読むときに単語又は単語の一部を見ているテキストの方向(例えば、英語の場合は左から右、アラビア語の場合は右から左)への目の動き、続いて、ユーザがちょうど読んだ行に沿ってテキストの反対方向(例えば、英語の場合は右から左、アラビア語の場合は左から右)への目の動きを含む。いくつかの実施形態では、スクロールは、ユーザがテキストの第1の部分に沿って目を逆方向に動かしている間に、テキストの第2の部分がテキストの第1の部分が以前に表示された位置に移動するように実行される。例えば、スクロールは、テキストの第2の部分がユーザが見ている位置に移動されるように時間調整される。例えば、ユーザがテキストの第1の部分の先頭の隣のユーザインタフェース内の位置を見ている間、電子デバイスは、テキストをスクロールし、ユーザが見ているテキストの第2の部分を表示する。したがって、テキストの第2の部分は、ユーザがテキストの第1の部分に沿って逆方向を見終えるときにユーザの視線に「出会う」。
ユーザがテキストの第2の部分の先頭に向かって目を動かしながら見ている位置にテキストの第2の部分が表示されるようにテキストをスクロールする上述の方法は、ユーザがテキストの第2の部分を読もうとしている可能性があるときにテキストがスクロールを終了するように電子デバイスがテキストをスクロールすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがテキストをより速く読むことを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される
いくつかの実施形態では、ユーザインタフェースは、図7Cのように、ユーザインタフェース内の第1の位置(例えば、722a)にあるテキストの第1の部分(例えば、724a)と、ユーザインタフェース内の第2の位置(例えば、722b)にあるテキストの第2の部分(例えば、724b)と、ユーザインタフェース内の第3の位置にあるコンテンツアイテムのテキストの第3の部分(例えば、710a)とを含む(例えば、テキストの第1の部分、第2の部分、及び第3の部分は、任意選択的にテキストの行である)(938)。例えば、テキストの第2の部分は、テキストの行でもあるテキストの第1の部分の直後のテキストの行であり、テキストの第3の部分は、テキストの第2の行の後のテキストの行である。いくつかの実施形態では、テキストの第3の部分は、テキストの第2の部分の直後に続き、いくつかの実施形態では、テキストの第3の部分とテキストの第2の部分との間に1つ以上の他のテキストの行がある。
いくつかの実施形態では、図7Cのように、ユーザの視線(例えば、716b)の動きが、ユーザがテキストの第1の部分(例えば、724a)を読んでいることを示している間に、ユーザの視線(例えば、716b)の動きが、ユーザがテキストの第1の部分(例えば、724a)を読み終わり、テキストの第2の部分(例えば、724b)を読み始めていることを示すという判定に従って、電子デバイス(例えば、101)は、テキストの第2の部分(例えば、724b)が第1の量だけ第1の方向に移動するようにテキストをスクロールする(例えば、テキストの第2の部分は、ユーザがテキストの第1の部分を読んでいた間にテキストの第1の部分が表示されたユーザインタフェース内の位置に移動する)(940)。
いくつかの実施形態では、ユーザの視線の動きが、ユーザが図7Cに示されるテキストの第1の部分(例えば、724a)を読み終わり、テキストの第3の部分(例えば、710a)を読み始めようとしていることを示すという判定に従って、電子デバイス10は、テキストの第3の部分(例えば、710a)が第1の量より大きい第2の量だけ第1の方向に移動するように、テキストをスクロールする(942)。
いくつかの実施形態では、テキストの第2の部分は、テキストの行である、テキストの第1の部分のすぐ下のテキストの行であり、テキストの第2の部分は、1行の高さだけ上方に進む。いくつかの実施形態では、ユーザがテキストの第1の部分をまだ読み終わっていないという判定に従って、電子デバイスはテキストをスクロールすることを取り止める。
いくつかの実施形態では、テキストの第3の部分は、テキストの第2の部分とテキストの第1の部分との間の距離よりもテキストの第1の部分から遠いテキストの行である。ユーザがテキストの第3の部分を読んでいることを検出したことに応じて、電子デバイスは、任意選択的に、ユーザがテキストの第1の部分を読んでいる間にテキストの第1の部分が表示されたユーザインタフェース内の位置までテキストの第3の部分をスクロールする。したがって、いくつかの実施形態では、ユーザが読んでいるテキストの部分を、テキストの第1の部分が表示されていたユーザインタフェース内の位置に表示するために、テキストの第3の部分は、テキストの第2の部分がスクロールされるよりも長い距離だけスクロールされる。いくつかの実施形態では、テキストの第3の部分は、テキストの第1の部分が表示された位置まで直ちにスクロールされるのではなく、その位置まで途中までスクロールされ、ユーザがより多くのテキストを読むにつれて、最終的に、ユーザが現在読んでいるテキストの部分は、テキストの第1の部分が表示された位置と一致するようにスクロールされる。いくつかの実施形態では、テキストの現在読まれている部分が最終的にユーザインタフェース内のテキストの第1の部分の元の位置に追いつくことができるように、ユーザが単に次のテキストの行に移動する場合よりも、ユーザが複数のテキストの行をスキップする場合の方が、テキストがより多くスクロールされる。
ユーザがテキストの第2の部分を読んでいることを検出したことに応じてテキストの第2の部分を第1の量だけスクロールし、ユーザがテキストの第3の部分を読んでいることを検出したことに応じてテキストの第3の部分を第3の量だけスクロールする上述の方法は、電子デバイスが、ユーザが読んでいるテキストの部分をユーザインタフェース内の一定の位置で表示するように動作することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより迅速に読むことを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cに示すテキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールすることにより、ユーザインタフェースの第3の領域(例えば、いくつかの実施形態では、画像はコンテンツアイテムの一部であり、コンテンツアイテム内のテキストの第2の部分の後に配置される)に画像(例えば、712a)が表示される(944)。例えば、ユーザインタフェースの第3の領域は、テキストの第2の部分の下にあり、任意選択的に、テキストの第2の部分と画像との間のテキストの他の部分を有する。
いくつかの実施形態では、テキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールした後(946)、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、図7Dのように、ユーザの視線(例えば、716d)が画像(例えば、712a)に向けられていると判定し(948)、ユーザの視線(例えば、716d)が画像(例えば、712a)に向けられていると判定したことに応じて、電子デバイス(例えば、101)は、図7Eのように、ユーザインタフェース内の第1の位置(例えば、722a)に画像(例えば、712a)を表示するために、テキスト及び画像(例えば、712a)を第1の方向にスクロールする(950)。
いくつかの実施形態では、画像は、ユーザがテキストの第1の部分を読んでいた間にテキストの第1の部分が表示されたユーザインタフェース内の位置に表示される。テキスト及び画像をスクロールすることは、任意選択的に、画像の後に表示される追加のテキストを明らかにすることを含む。いくつかの実施形態では、ユーザの視線が画像に向けられていないという判定に従って、電子デバイスは、ユーザインタフェース内の第1の位置に画像を表示するために、テキスト及び画像を第1の方向にスクロールすることを取り止める。
ユーザが画像を見ていることを検出したことに応じてユーザインタフェース内の第1の位置に画像を表示する上記の方法は、電子デバイスが、視線以外の入力を必要とせずに、ユーザにとって快適な閲覧位置に画像を移動させることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、画像を表示するのに必要な入力の数を減らすことによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、画像(例えば、712a)をユーザインタフェース内の第1の位置(例えば、722a)に表示している間に、コンテンツアイテムのテキスト(例えば、テキストの行)の第3の部分(例えば、710b)を画像の下に表示する(952)。
いくつかの実施形態では、画像(例えば、712a)をユーザインタフェースの第1の位置(例えば、722a)に表示し、テキストの第3の部分(例えば、710b)を画像(例えば、712a)の下に表示している間に、電子デバイス(例えば、101)は、図7Eのように、1つ以上の基準が満たされたと判定する(954)(例えば、1つ以上の基準は、ユーザがテキストの第3の部分を読み始めるときに満たされる基準を含む(例えば、ユーザは、テキストの所定の部分(例えば、1単語、2単語、3単語)を読んだか、又は所定の時間の量(例えば、1秒、2秒など)テキストを読んでおり、ユーザがテキストの第3の部分を見るときに満たされる基準、及び/又はユーザが画像から目を離すときに満たされる基準)。
いくつかの実施形態では、1つ以上の基準が満たされたとの判定に応じて、電子デバイス(例えば、101)は、図7Fなどの画像(例えば、712a)に重ね合わされるようにテキストの第3の部分(例えば、710b)を移動するようにユーザインタフェースを更新する(956)。
いくつかの実施形態では、コンテンツは、テキストの第3の部分がユーザインタフェース内の第1の位置に表示されるようにスクロールされる。画像は、任意選択的に、ユーザインタフェース内の第1の位置の上方に延在し、任意選択的に、テキストの第3の部分よりも大きい幅を有する。いくつかの実施形態では、テキストは、テキストとのコントラストが高い背景で表示される。例えば、テキストの第3の部分は、画像上に重ね合わされる白い長方形上に重ね合わされた黒いテキストで表示される。いくつかの実施形態では、画像上に重ね合わされた背景はなく、代わりに、テキストと画像とのコントラストを作成するために、画像のテキスト色及び/又は透明度が変更される。いくつかの実施形態では、テキストの追加部分もまた画像上に重ね合わされる。例えば、テキストの第3の部分はテキストの行であり、追加のテキストの行が画像に重ねて表示される。いくつかの実施形態では、1つ以上の基準が満たされていないという判定に従って、電子デバイスは、画像に重ね合わされるようにテキストの第3の部分を移動するためにユーザインタフェースを更新することを取り止める。
画像上に重ね合わされたテキストの第3の部分を表示する上述の方法は、電子デバイスが、画像の視覚的連続性を維持しながら、現在の関心のあるテキストを現在の読み取り位置に迅速かつ効率的にもたらすことを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが画像を見て、一緒にコンテンツを読むのにかかる時間を短縮することによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Fのように、画像(例えば、712a)に重ねられたテキストの第3の部分(例えば、710b)を表示している間、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線の動きが、ユーザがテキストの第3の部分(例:710a)を読んでいることを示すことを検出する(958)(例えば、電子デバイスは、読書と一致する動きに一致するユーザの目の動きを検出する)。
いくつかの実施形態では、ユーザの視線の動きが図7Fに示されるテキストの第3の部分(例えば、710b)をユーザが読んでいることを示すと判定したことに応じて、電子デバイス(例えば、101)は、テキストの第3の部分(例えば、710b)がもはや画像(例えば、712a)上に重ね合わされないように、画像(例えば、712a)を第1の方向にスクロールする(960)。
いくつかの実施形態では、テキストの第3の部分は、ユーザインタフェース内の第1の位置に表示され続け、画像は、ユーザインタフェース内の第1の位置と重ならない位置に表示されるように移動する。例えば、画像は、テキストの第3の部分の上に表示される。いくつかの実施形態では、ユーザがテキストの第3の部分を読んでいないという判定に従って、電子デバイスは、テキストの第3の部分がもはや画像上に重ならないように、画像を第1の方向にスクロールすることを取り止める。
ユーザがコンテンツの第3の部分を読んでいることを検出したことに応じて、テキストの第3の部分がもはや画像上に重ならないように画像をスクロールする上記の方法は、ユーザがコンテンツの第3の部分を読んでいる間に、電子デバイスがテキストの第3の部分の周りの視覚的クラッタを低減することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツを迅速に読むことを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、コンテンツアイテムを含むユーザインタフェースを表示している間に、電子デバイスは、視線トラッキングデバイス(例えば、314)を介して、ユーザの頭部の水平方向の動きを検出する(例えば、ユーザインタフェースの水平方向に沿った頭部の動き(例えば、左から右))(962)。
いくつかの実施形態では、ユーザの頭部の水平方向の動きを検出したことに応じて、電子デバイス(例えば、101)は、コンテンツアイテムをユーザの視野の中心の位置に表示するようにユーザインタフェースを更新する(964)。
例えば、ユーザが頭部を右に移動させることを検出したことに応じて、電子デバイスは、コンテンツを右に移動させる。したがって、いくつかの実施形態では、電子デバイスは、ユーザが頭部を移動させた後でも、ユーザの視野の(例えば、水平及び/又は垂直)中心にコンテンツを表示する。いくつかの実施形態では、電子デバイスがユーザの頭部の水平方向の動きを検出しない場合、電子デバイスはユーザインタフェースを更新しない。
ユーザの頭部の水平方向の動きを検出したことに応じてコンテンツアイテムを移動させる上記の方法は、電子デバイスが、ユーザが効率的に読むことができる位置にコンテンツアイテムを表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより迅速に読むことを可能にすることによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第1の方向は、図7C~図7Dなどの、ユーザインタフェース内で垂直である方向である(966)。任意選択的に、コンテンツは、複数行のテキストなど、垂直方向にスクロール可能なテキストを含む。いくつかの実施形態では、電子デバイスは、ユーザがテキストの各行を読むにつれて、コンテンツをスクロールする。電子デバイスは、任意選択的に、視線トラッキングデバイス以外の入力デバイスで受信した入力に応じてコンテンツを下方にスクロールし(例えば、ユーザは、コンテンツを上にスクロールする要求に対応する異なる入力デバイスを介して入力を供給する)、ユーザは、任意選択的に、視線ベースの入力のみを提供したことに応じて、コンテンツを下方にスクロールすることができない。
テキストを垂直方向にスクロールする上述の方法は、電子デバイスが、ユーザが既に見ているユーザインタフェース内の垂直位置にテキストを自動的に表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより迅速に読むことを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第1の方向は、ユーザインタフェースにおいて水平である方向である(968)。いくつかの実施形態では、テキストは、水平方向にスクロール可能なテキストの(例えば、単一)行である。例えば、テキストが左から右に読む英語又は別の言語である場合、電子デバイスは、ユーザがテキストを読むと、テキストを左にスクロールする。電子デバイスは、任意選択的に、視線トラッキングコンポーネント以外の入力デバイス(例えば、ユーザは、コンテンツを戻る方向にスクロールする要求に対応する異なる入力デバイスを介して入力を供給する)を介して入力を受信したことに応じて、テキストを逆方向にスクロールすることができ、ユーザは、任意選択的に、視線ベースの入力のみを提供したことに応じて、コンテンツを反対方向にスクロールすることができない。
テキストを水平方向にスクロールする上述の方法は、電子デバイスが、ユーザが既に見ているユーザインタフェース内の水平位置にテキストを自動的に表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより迅速に読むことを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第1の方向は、ユーザインタフェース内の垂直成分及び水平成分を有する(970)。いくつかの実施形態では、コンテンツは、グリッド又は別の二次元アレイに配置される。例えば、コンテンツは、マルチパネルのコミックである。いくつかの実施形態では、ユーザがパネルのコミックのコンテンツを読み終わった後、電子デバイスは、ユーザインタフェースの第1の位置に次のパネルを表示し、したがって、ユーザがユーザインタフェース内の1つの位置で次から次のパネルにコミックを読み続けることを可能にする。
テキストを水平方向及び垂直方向にスクロールする上述の方法は、電子デバイスが、ユーザが既に見ているユーザインタフェース内の位置にテキストを自動的に表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより迅速に読むことを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、電子デバイス(例えば、101)は、図7Cのように、検出されたテキストの第1の部分(例えば、724a)上のユーザの視線(例えば、716b)の動きに基づいて、ユーザがテキストの第1の部分(例えば、724a)を読み終わったことを検出する(972)。
いくつかの実施形態では、ユーザがテキストの第1の部分(例えば、724a)を読み終わったことを検出したことに応じて、電子デバイス(例えば、101)は、ユーザインタフェース内に、ユーザがテキストの第1の部分(例えば、724a)を読み終わったと判定する前には表示されていなかったコンテンツアイテムのテキストの第3の部分を表示する(974)。
いくつかの実施形態では、電子デバイスは、ユーザが表示されているコンテンツの部分を読み終わると、コンテンツの後続部分の表示を開始する(例えば、ユーザがテキストの第1の部分を読み終わった後にテキストの第2の部分を表示し、ユーザがテキストの第1の部分を読み終わる前にテキストの第2の部分が可視であった/表示されていた場合、テキストの第2の部分は、ユーザがテキストの第1の部分を読み終わる前にユーザインタフェース内で可視である/表示される)。いくつかの実施形態では、ユーザがテキストの第1の部分を読み取っていないという判定に従って、電子デバイスは、コンテンツアイテムのテキストの第3の部分を表示することを取り止める。
ユーザがコンテンツの表示された部分を読み終えるときにコンテンツの後続の部分の表示を開始する上述の方法は、電子デバイスが、ユーザが現在読んでいるコンテンツの部分を、視覚的に気を散らすことなく提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより迅速に読むことを可能にすることによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cのように、ユーザの視線(例えば、716b)の動きが、ユーザがテキストの第1の部分(例えば、724a)を読んでいることを示していると判定したことに応じて、電子デバイス(例えば、101)は、テキストの第1の部分に関連付けられた第1のオーディオを生成する(976)(例えば、第1のオーディオは任意選択的に音楽、音響効果、又はテキストの第1の部分のテキストのオーディオ(例えば、テキストの第1の部分のオーディオが読み上げられる)を含む)。
いくつかの実施形態では、図7Dに示されるテキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールした後、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線の動きが、ユーザがテキストの第2の部分(例えば、724b)を読んでいることを示していると判定する(978)(例えば、電子デバイスは、ユーザがテキストの第2の部分を見ている間に、読み取りと一致するユーザの目の動きを検出する)。
いくつかの実施形態では、ユーザの視線の動きが、ユーザがテキストの図7Dに示される第2の部分(例えば、724b)を読んでいることを示しているとの判定に応じて、電子デバイス(例えば、101)は、テキストの第2の部分に関連付けられた第2のオーディオを判定する(980)。例えば、第2のオーディオは、任意選択的に、音楽、サウンドエフェクト、又はテキストの第2の部分のテキストのオーディオ(例えば、テキストの第2の部分のオーディオが読み上げられる)を含む。いくつかの実施形態では、ユーザがテキストの読み取りを停止すると、電子デバイスは、テキストに関連付けられたオーディオの1つ以上の部分の提示を停止する。
ユーザが読んでいる間にユーザが現在読んでいるテキストの部分に対応するオーディオを生成する上記の方法は、ユーザの視線の検出以外の入力を受信することなく電子デバイスがオーディオを再生することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、電子デバイスにコンテンツアイテムと調整されたオーディオを再生させるためにユーザが必要とする入力を減らすことによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cに示されるテキストの第1の部分(例えば、724a)に関連する第1のオーディオの進行は、ユーザがテキストの第1の部分(例えば、724a)を読んでいる速度に対応し、テキストの第2の部分(例えば、724b)に関連する第2のオーディオ(例えば、724b)の進行は、ユーザがテキストの第2の部分を読んでいる速度に対応する(982)。
いくつかの実施形態では、ユーザがテキストを速く読むほど、対応するオーディオコンテンツが速く再生される。同様に、いくつかの実施形態では、ユーザがテキストを読むのが遅いほど、対応するオーディオコンテンツがより遅く再生される。例えば、オーディオコンテンツは、読み上げられているテキストの録音であり、オーディオは、読み上げられているフレーズ及び/又は単語が、ユーザによって現在読まれているフレーズ/単語と同期されるような速度で再生される。
ユーザがテキストを読んでいる速度に対応する速度でオーディオを生成する上記の方法は、ユーザの視線の検出以外の入力を受信することなく、電子デバイスがユーザの読み取り速度と調整されたオーディオを再生することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザの読み取り速度に合わせて調整されたオーディオを電子デバイスに再生させるためにユーザが必要とする入力を低減することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザの視線の動きが、ユーザがそれぞれのコンテンツアイテムを読んでいることを示している間に、電子デバイスは、それらのそれぞれのコンテンツアイテムを、ユーザがそれらのそれぞれのコンテンツアイテムを読んでいたそれぞれの時間に関連付ける(例えば、ユーザがコンテンツアイテムを読んでいる間、電子デバイスは、ユーザがコンテンツアイテムを読んでいる時間のタイムスタンプに関連してコンテンツアイテムのインジケーション(又はコンテンツアイテムの特定の部分のインジケーション)を記憶する(984)。例えば、ユーザがニュース記事を読んでいる間、電子デバイスは、ニュース記事のインジケーションと、ユーザがニュース記事を読んでいる時間とを記憶する。別の例として、ユーザが電子書籍の個別の章を読んでいる間、電子デバイスは、ユーザが章、ページ、行、及び/又は単語を読んでいる時間のタイムスタンプに関連して、個別の章、ページ、行、及び/又は単語のインジケーションを記憶する。
いくつかの実施形態では、ユーザの視線の動きが、ユーザがそれぞれのコンテンツアイテムを読み終わったことを示した後(986)、電子デバイス(例えば、101)は、1つ以上の入力デバイスを介して、ユーザが第1の個別の時間に読んでいたコンテンツアイテムに関する情報を提示する要求を受信する(988)(例えば、ユーザは、ユーザが第1の個別の時間に読んでいたコンテンツアイテムのインジケーションを提示するように電子デバイスに要求する入力を入力する)。例えば、ユーザは、電子デバイスの仮想アシスタントに「昨日の午後3時に何を読んでいたか?」と尋ね、それに応じて、電子デバイスは、ユーザが前日の午後3時に読んでいたコンテンツアイテム(例えば、章、ページ、行及び/又は単語)のインジケーションを提示する。いくつかの実施形態では、キーボード又はソフトキーボードを介してテキスト入力を提供するなど、他の形態の入力が可能である。
いくつかの実施形態では、ユーザが第1の個別の時間に読んでいたコンテンツアイテムに関する情報を表示する要求の受信に応じて(990)、第1の個別の時間が第1の時間であるという判定に従って、電子デバイス(例えば、101)は、第1の個別のコンテンツアイテムに関する情報を提示する(992)(例えば、ユーザが前日の午前10時に読んでいたコンテンツに関する情報を要求する場合、電子デバイスは、ユーザが前日の午前10時に読んでいたコンテンツアイテム又はコンテンツアイテムの部分のインジケーションを提示する)。
いくつかの実施形態では、第1の個別の時間が第2の時間であるという判定に従って、電子デバイス(例えば、101)は、第2の個別のコンテンツアイテムに関する情報を提示する(994)。例えば、ユーザが、月曜日の午後2時に読んでいたコンテンツアイテムに関する情報を要求した場合、電子デバイスは、ユーザが月曜日の午後2時に読んでいたコンテンツアイテム又はコンテンツアイテムの部分のインジケーションを提示する。いくつかの実施形態では、ユーザは、電子デバイスが記憶された個別の読み取りコンテンツアイテムを有していないときに何を読んでいたかに関する情報を要求する。要求に応じて、電子デバイスは、任意選択的に、ユーザが指示された時間に何も読んでいなかったことを示し、及び/又は関連するコンテンツアイテムが記憶されている要求された時間に最も近い時間にユーザが読んでいたコンテンツアイテムのインジケーションを提示する。いくつかの実施形態では、ユーザが個別の時間にコンテンツアイテムを読んでいなかったという判定に従って、電子デバイスは、ユーザが個別の時間に読んでいなかったというインジケーションを提示する。
ユーザが読んでいるコンテンツアイテムのインジケーションを現在時間に関連して記憶し、個別の時間に読まれていたコンテンツアイテムに関する情報を提示する要求に応じて、個別の時間に読まれていたコンテンツアイテムのインジケーションを提示する上述の方法は、電子デバイスが、コンテンツアイテムに関するタイトル又は他の識別情報を提供されることなく、コンテンツアイテムに効率的にナビゲートすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが以前に見たコンテンツを迅速に想起して見ることを可能にすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、コンテンツアイテムを表示している間、電子デバイス(例えば、101)は、1つ以上の入力デバイスを介して、コンテンツアイテムの表示を停止する要求を受信し(996)、コンテンツアイテムの表示を停止する要求の受信に応じて、コンテンツアイテムの表示を停止する(例えば、1つ以上の基準を満たす頭部の動きを実行している間に、コンテンツアイテムが表示されている表示エリアとは異なる表示エリアを見ているユーザを検出したことに応じて、電子デバイスは、コンテンツアイテムの表示を停止するか、又は以下でより詳細に説明する方法1000の1つ以上のステップに従って、コンテンツ閲覧ユーザインタフェースにコンテンツアイテムの所定の部分のみを表示する)。電子デバイスは、視線トラッキングデバイス以外の入力デバイスで検出されたユーザ入力に応じて、コンテンツアイテムの表示を任意選択的に停止する。いくつかの実施形態では、電子デバイスは、異なるコンテンツアイテムを表示する要求に対応するユーザ入力、又はコンテンツアイテムを提示するアプリケーションとは異なるアプリケーションのユーザインタフェースに応じて、コンテンツアイテムの表示を停止する。
いくつかの実施形態では、コンテンツアイテムの表示を停止した後、電子デバイス(例えば、101)は、1つ以上の入力デバイスを介して、コンテンツアイテムを表示する要求を受信する(例えば、コンテンツアイテムを表示する要求は、任意選択的に、比較的短い時間(例えば、5分~1時間)が経過した後に、又は、より長い時間(例えば、1日以上)が経過した後に受信される)(998)。
いくつかの実施形態では、コンテンツアイテムを表示する要求の受信に応じて(998-2)、電子デバイスは、個別のコンテンツアイテムを表示する(例えば、いくつかの実施形態では、コンテンツアイテムは、上述したプロセス800の1つ以上のステップに従って、コンテンツ閲覧ユーザインタフェース上に重ね合わせて表示される)(998-4)。
いくつかの実施形態では、コンテンツアイテムの表示が停止される前に、ユーザがコンテンツアイテムのテキストの第1の部分を最後に読んだという判定に従って、電子デバイス(例えば、101)は、コンテンツアイテムのテキストの第1の部分のインジケーションを提供する(例えば、コンテンツアイテムのテキストの第1の部分のインジケーションを表示することは、視覚的インジケーションと共にコンテンツアイテムのテキストの第1の部分を表示することを含む)(998-6)。
いくつかの実施形態では、コンテンツアイテムの表示が停止される前に、ユーザがコンテンツアイテムのテキストの第2の部分を最後に読んだという判定に従って、電子デバイス(例えば、101)は、コンテンツアイテムのテキストの第2の部分のインジケーションを提供する(998-8)。
例えば、コンテンツアイテムのテキストの第1の部分がコンテンツアイテムの先頭でない場合でも、コンテンツアイテムは、コンテンツアイテムの第1の部分にスクロールして表示される。いくつかの実施形態では、コンテンツアイテムの先頭は、コンテンツアイテムの第1の部分を含まない場合であっても、コンテンツアイテムの第1の部分のインジケーションと同時に表示される。コンテンツアイテムの第1の部分のインジケーションの選択を検出したことに応じて、電子デバイスは、任意選択的に、コンテンツアイテムをコンテンツアイテムの第1の部分にスクロールする。いくつかの実施形態では、インジケーションは、オーディオ又は視覚的インジケーションのうちの1つ以上である。
いくつかの実施形態では、コンテンツアイテムのテキストの第2の部分のインジケーションを表示することは、視覚的インジケーションと共にコンテンツアイテムのテキストの第2の部分を表示することを含む。例えば、コンテンツアイテムのテキストの第2の部分がコンテンツアイテムの先頭でない場合でも、コンテンツアイテムは、コンテンツアイテムの第2の部分にスクロールして表示される。いくつかの実施形態では、コンテンツアイテムの先頭は、コンテンツアイテムの第2の部分を含まない場合であっても、コンテンツアイテムの第2の部分のインジケーションと同時に表示される。コンテンツアイテムの第2の部分のインジケーションの選択を検出したことに応じて、電子デバイスは、任意選択的に、コンテンツアイテムをコンテンツアイテムの第2の部分にスクロールする。いくつかの実施形態では、インジケーションは、オーディオ又はビデオインジケーションのうちの1つ以上である。
コンテンツアイテムの表示を停止する前にユーザが最後に読んだコンテンツアイテムの部分のインジケーションを表示する上述の方法は、電子デバイスが、ユーザが以前に読んでいたコンテンツアイテムの部分を迅速に提示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツから離れてナビゲートした後にコンテンツの読み取りを再開するのにかかる時間を短縮することによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、所定のタイミング基準でユーザの目が閉じてから開かれたという判定を含めて、ユーザが瞬きをしたと判定する(例えば、ユーザの目は、時間閾値(例えば、0.05、0.1、0.2、0.5秒、1秒、2秒など)よりも長く閉じられ、その後再び開かれる)(998-10)。いくつかの実施形態では、閾値は、ユーザがユーザインタフェースを見ている間又はコンテンツを読んでいる間にユーザが通常瞬きする時間よりも長い。
いくつかの実施形態では、ユーザが瞬きしたと判定したことに応じて、電子デバイス(例えば、101)は、第1の方向とは異なる第2の方向にテキストをスクロール(998-12)して、コンテンツアイテムの前の部分をユーザインタフェース内の第1の位置(例えば、722a)に表示させる。例えば、電子デバイスは、ユーザが読んでいるときにテキストを下にスクロールし、所定の閾値時間の量よりも長く続くユーザの瞬きを検出したことに応じて、電子デバイスはコンテンツを上にスクロールする。いくつかの実施形態では、コンテンツアイテムの第1の部分は、コンテンツアイテムの先頭である。いくつかの実施形態では、長い瞬きは、コンテンツアイテムをコンテンツアイテムの先頭に戻すようにスクロールさせる。いくつかの実施形態では、長い瞬きは、コンテンツアイテムを増分的に戻してスクロールさせる(各瞬きは逆方向へのスクロールのインクリメントを引き起こす)。いくつかの実施形態では、ユーザの目が所定のタイミング基準で閉じてから開かなかったという判定に従って、電子デバイスは、第2の方向へのテキストのスクロールを取り止める。
所定の閾値時間よりも長く続く瞬きを検出したことに応じてコンテンツアイテムを逆方向にスクロールする上述の方法は、電子デバイスがコンテンツアイテムの以前の部分に効率的にナビゲートすることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、以前の部分からコンテンツアイテムを読み始めるのに必要な時間を短縮することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザがコンテンツアイテムを流し読みしていると判定する(例えば、テキストを流し読みすることに関連付けられた目の動きは、テキストを読むことに関連付けられた目の動きとは異なる)(998-14)。電子デバイスは、任意選択的に、視線トラッキングデバイスを介して、ユーザがコンテンツを流し読みしていると判定することができる。
いくつかの実施形態では、ユーザがコンテンツアイテムを流し読みしていると判定したことに応じて、電子デバイス(例えば、101)は、第1の値を有する視覚特性で、コンテンツアイテムの1つ以上の第1の単語を提示し、第1の値とは異なる第2の値を有する視覚特性で、コンテンツアイテムの第1の単語とは異なるコンテンツアイテムの1つ以上の第2の単語を提示する(998-16)
視覚特性は、任意選択的に、色、不透明度、サイズ、強調表示、又はテキストスタイル(例えば、太字、下線、斜体)のうちの1つ以上である。いくつかの実施形態では、電子デバイスは、任意選択的に、読みやすい外観(例えば、より高いコントラスト色、より高い不透明度、より大きなサイズ、強調表示されている、又は太字、斜体、若しくは下線付きの書体で提示されている)を有するコンテンツアイテムにとって重要であると考えられる1つ以上の所定の単語と、流し読みしやすい外観(例えば、より低いコントラスト色、より低い不透明度、より小さいサイズ、強調表示されていない、又は他の単語が提示されるテキストスタイルで提示されない)を有するコンテンツアイテムの残りの単語とを提示する。例えば、電子デバイスは、白の背景にコンテンツアイテムを表示し、キーワードは黒のテキストで表示され、他の単語はグレーのテキストで表示される。いくつかの実施形態では、ユーザがコンテンツアイテムを流し読みしていないと判定することに従って、電子デバイスは、第1の値を有する視覚特性でコンテンツアイテムの1つ以上の第1の単語を提示すること、及び第1の値とは異なる第2の値を有する視覚特性で、コンテンツアイテムの第1の単語とは異なるコンテンツアイテムの1つ以上の第2の単語を提示することを取り止める。
ユーザがコンテンツを流し読みしていることを検出したことに応じて、異なる視覚特性で第1の単語及び第2の単語を上記のように表示することにより、電子デバイスは、流し読みしやすいようにコンテンツを表示することができ、これにより、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがテキストを流し読みするのにかかる時間を短縮することによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cのように、ユーザの視線(例えば、716b)の動きが、ユーザがテキストの第1の部分(例えば、724a)を読み終えたことを示しているという判定に応じて、テキストの第2の部分(例えば、724b)が第1の方向に移動するようにテキストをスクロールした後、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)以外の電子デバイス(例えば、101)と通信する1つ以上の入力デバイス(例えば、キーボード、マウス、タッチスクリーン、タッチセンシティブ面、トラックパッド、音声コマンドなどである)を介して、第1の方向とは反対の第2の方向にテキストをスクロールする要求に対応する入力を受信する(998-18)。
いくつかの実施形態では、1つ以上の入力の受信に応じて、電子デバイス(例えば、101)は、第2の方向にテキストをスクロールする(998-20)。いくつかの実施形態では、視線トラッキングデバイス以外の入力デバイスで受信した、コンテンツを逆方向にスクロールする要求に応じて、電子デバイスはコンテンツを逆方向にスクロールする。例えば、電子デバイスは、ユーザがコンテンツを読むと自動的にコンテンツを下にスクロールし、コンテンツを上にスクロールする要求に対応するトラックパッドで受信した入力に応じて、電子デバイスはコンテンツを上にスクロールする。いくつかの実施形態では、電子デバイスは、視線トラッキングデバイスを介して検出された入力に応じてコンテンツを逆方向にスクロールしない。例えば、電子デバイスは、ユーザがコンテンツを読むときにコンテンツを下にスクロールし、ユーザが読んでいるコンテンツの個別の部分の上のディスプレイの領域をユーザが見ていることを検出する。この例では、電子デバイスは、単にユーザの視線を検出したことに応じてコンテンツを上にスクロールしない。
視線に応じて第1の方向に、及び視線トラッキングデバイス以外の入力デバイスに応じて第2の方向にコンテンツをスクロールする上述の方法は、電子デバイスが視線に応じて第2の方向にコンテンツをスクロールすることを取り止めることを可能にし、したがって、ユーザがテキストを誤って戻る方向にスクロールすることなくユーザインタフェースを自由に見回すことを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザエラーの可能性を低減し、ユーザエラーを訂正するのに必要な入力を低減することによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
図10A~図10Gは、いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってユーザインタフェース間をナビゲートする方法1000を示すフローチャートである。いくつかの実施形態では、方法1000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法1000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法1000の一部の動作が任意選択的に組み合わされ、及び/又はいくつかの動作の順序が任意選択的に変更される。
方法1000では、いくつかの実施形態では、表示生成コンポーネント(例えば、120)及び視線トラッキングデバイス(例えば、314)と通信する電子デバイス(例えば、コンピュータシステム(例えば、101))(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ)、コンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータ)、又はウェアラブルデバイス(例えば、ウォッチ、頭部装着型デバイス)は、表示生成コンポーネント(例えば、120)を介して、図7Bに示すようにディスプレイに第1のユーザインタフェース(例えば、700)を表示している間に、第1のユーザインタフェース(例えば、700)から第2のユーザインタフェース(例えば、714)(例えば、第1のユーザインタフェースは、選択されると、電子デバイスに異なるユーザインタフェースにナビゲートさせる1つ以上のオプションを含むナビゲーションユーザインタフェースであってもよい)にナビゲートする要求を検出する(1002)。
いくつかの実施形態では、第1のユーザインタフェース(例えば、700)から第2のユーザインタフェース(例えば、714)にナビゲートする要求に応じて、電子デバイス(例えば、101)は、第2のユーザインタフェース(例えば、電子デバイスは、第2のユーザインタフェースにナビゲートする要求を検出したことに応じて、コンテンツのアイテムを含むコンテンツユーザインタフェースなどの第2のユーザインタフェースを表示する)にナビゲートする(1004)。
いくつかの実施形態では、図7Cに示すように、表示生成コンポーネント(例えば、120)を介して第2のユーザインタフェース(例えば、714)を表示している間に、電子デバイス(例えば、101)は、ユーザの頭部の動きを検出する(例えば、頭部の動きは、ユーザの頭部の動きが所定の頭部の動きと一致することを示す1つ以上の基準を満たす)(1006)。
いくつかの実施形態では、ユーザの頭部の動きを検出したことに応じて(1008)、頭部の動きが第1の基準(例えば、側方への移動、次いで前方への移動)を満たし、ユーザの視線(例えば、716c)がユーザインタフェース(例えば、700)の個別の部分(例えば、コンテンツ領域の外側にあり、任意選択的に、コンテンツ領域の左側などのコンテンツ領域から第1の方向にある部分)に向けられているという判定に従って、電子デバイス(例えば、101)は、図7Bに示すように、第2のユーザインタフェース(例えば、714)から第1のユーザインタフェース(例えば、700)に戻るようにナビゲートする(例えば、電子デバイスは、任意選択的に、第2のユーザインタフェースの表示を停止し、第1のユーザインタフェースを表示する)(1010)。
いくつかの実施形態では、頭部の動きが第1の基準を満たさないという判定に従って、電子デバイス(例えば、101)は、第2のユーザインタフェース(例えば、714)から第1のユーザインタフェース(例えば、700)に戻るナビゲーションを取り止める(例えば、電子デバイスは、任意選択的に、第2のユーザインタフェースを表示し続ける)(1012)。
いくつかの実施形態では、頭部の動きが第1の基準を満たし、ユーザの視線がユーザインタフェースの個別の部分(例えば、700)に向けられていないという判定に従って、電子デバイス(例えば、101)は、第2のユーザインタフェース(例えば、714)から第1のユーザインタフェース(例えば、700)に戻るナビゲーションを取り止める(1014)。
いくつかの実施形態では、表示生成コンポーネントは、電子デバイス(任意選択的にタッチスクリーン)及び/又はモニタ、プロジェクタ、テレビなどの外部ディスプレイと統合されたディスプレイである。いくつかの実施形態では、視線トラッキングデバイスは、1つ以上のカメラ(単数又は複数)(例えば、IRカメラ、NIRカメラ、可視光カメラなど)を含む。
例えば、第1のユーザインタフェースは、コンテンツのアイテムの1つ以上の表現を含むコンテンツ閲覧ユーザインタフェースである。方法800の1つ以上のステップなどに従って、コンテンツのアイテムのうちのいずれかを閲覧する要求を検出したことに応じて、電子デバイスは、任意選択的に、要求されたコンテンツのアイテムを第2のユーザインタフェースに表示する。したがって、いくつかの実施形態では、第2のユーザインタフェースは、コンテンツのアイテム(例えば、テキストコンテンツ、写真コンテンツ、及び/又はビデオコンテンツ)を含むコンテンツ視聴ユーザインタフェースである。
いくつかの実施形態では、方法800の1つ以上のステップなどに従って、第2のユーザインタフェースは第1のユーザインタフェース上に重ねて表示され、電子デバイスが第2のユーザインタフェースを表示している間、第1のユーザインタフェースの部分は可視のままである。
例えば、頭部の動きは、前方移動(例えば、表示生成コンポーネント及び/又は視線トラッキングデバイスの方向に、及び/又はそうでなければ仮想環境におけるユーザインタフェースに向かって)及び/又は第1のユーザインタフェースの部分が表示される(例えば、仮想環境における)ユーザインタフェースの側方へ移動若しくは回転のうちの1つ以上を含む。例えば、第1のユーザインタフェースの部分が第2のユーザインタフェースの左に見える場合、頭部の動きは、左に向かう移動及び/又は回転を検出することを含む。
第2のユーザインタフェースが第1のユーザインタフェース上に重ね合わされるいくつかの実施形態では、電子デバイスは、ユーザが第1のユーザインタフェースの部分を見ていることを検出する。
いくつかの実施形態では、第1の基準を満たす頭部の動きは、第1のユーザインタフェースの部分が表示されるユーザインタフェースの側面に向かう頭部の動きを含む。例えば、第1のユーザインタフェースの部分が第2のユーザインタフェースの右に見える場合、第1の基準を満たす頭部の動きは、頭部の右への動きを含む。いくつかの実施形態では、ユーザの視線の位置は、視線トラッキングデバイスを使用して検出される。視線トラッキングデバイスは、任意選択的に、図6を参照してより詳細に上述したように、ユーザの目の1つ以上の画像をキャプチャし、キャプチャされた1つ以上の画像内の瞳孔及びグリントを検出してユーザの視線を追跡する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第2のユーザインタフェースオブジェクト上に部分的に重ね合わされ、第2のユーザインタフェースオブジェクトの一部は見える。電子デバイスは、任意選択的に、ユーザが第2のユーザインタフェースオブジェクトの可視部分を見ていることを検出する。
いくつかの実施形態では、頭部運動の方向、大きさ、又は持続時間の1つ以上が所定の範囲外であるか、又は所定のパターンと一致しない場合、頭部運動は第1の基準を満たさない。
いくつかの実施形態では、電子デバイスは、頭部の動きが第1の基準を満たし、かつユーザの視線がユーザインタフェースの個別の部分に向けられていると判定されない限り、第1のユーザインタフェースに戻るようにナビゲートしない。電子デバイスは、任意選択的に、頭部の動きが第1の基準を満たし、ユーザの視線がユーザインタフェースの個別の部分に向けられていないという判定に従って、第2のユーザインタフェースを表示し続ける。
ユーザの視線及び頭部の動きを検出したことに応じて第1のユーザインタフェースに戻るようにナビゲートする上記の方法は、電子デバイスが視線及び頭部の動きを超えてユーザ入力なしにユーザインタフェースオブジェクト間をナビゲートすることを可能にするが、頭部及び視線の二重要件による誤った逆方向ナビゲーションも回避することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがナビゲーション入力を入力するのにかかる時間を短縮し、誤ったナビゲーション結果を低減することによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7C のように、第2のユーザインタフェース(例えば、714)は、第1のユーザインタフェース(例えば、700)の少なくとも部分が表示されている間に表示される(例えば、第2のユーザインタフェースは、第1のユーザインタフェース上に重ね合わされ、第1のユーザインタフェースの部分は、第2のユーザインタフェースの境界の隣に見ることができる)(1016)。例えば、第1のユーザインタフェースは、コンテンツ閲覧ユーザインタフェースであり、第2のユーザインタフェースは、ユーザが第1のユーザインタフェースからナビゲートしたコンテンツのアイテムを含む。
いくつかの実施形態では、第2のユーザインタフェース(例えば、714)及び第1のユーザインタフェース(例えば、700)であって、第1のユーザインタフェース(例えば、700)は第2のユーザインタフェース(例えば、714)に対して視覚的に強調解除され、第1のユーザインタフェースの少なくとも部分を表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、図7Cのように、ユーザの視線(例えば、716c)が第2のユーザインタフェース(例えば、714)から第1のユーザインタフェース(例えば、700)に移動したと判定する(1018)(例えば、第1のユーザインタフェースは、任意選択的に、第2のユーザインタフェースよりも高い透明度で表示され、第1のユーザインタフェースは、第2のユーザインタフェースよりも高いぼかし度で表示され、第1のユーザインタフェースは、第2のユーザインタフェースよりも低い輝度又はコントラストで表示され、第1のユーザインタフェースは、縮小されたサイズで表示され、第2のユーザインタフェースは、ユーザが第2のユーザインタフェースを見ている間にフルサイズで表示されるなどである)。
いくつかの実施形態では、図7Cに示すように、ユーザの視線(例えば、716c)が第2のユーザインタフェース(例えば、714)から第1のユーザインタフェース(例えば、700)に移動したと判定したことに応じて、電子デバイス(例えば、101)は、図7Gに示すように、第2のユーザインタフェース(例えば、700)に対する第1のユーザインタフェース(例えば、714)の視覚的強調解除の量を減少させる(1020)(例えば、第1の値とは異なる第3の値を有する視覚特性で第2のユーザインタフェースを表示する(例えば、透明度の増加、ぼやけの増加、輝度又はコントラストの減少、サイズの縮小など)、及び/又は第2の値とは異なる第4の値を有する視覚特性で第1のユーザインタフェースの少なくとも部分を表示する)(例えば、減少した透明度、減少したぼやけ、増大した輝度又はコントラスト、増大したサイズなど)。
いくつかの実施形態では、ユーザが第2のユーザインタフェースを見ている間、第2のユーザインタフェースは、完全なカラー、コントラスト、又は輝度、完全な明瞭性、及び透明度で表示され、第1のユーザインタフェースは、縮小されたサイズ、ミュート色、低コントラスト、及び/又は輝度、減少された明瞭性、及び/又はより高い透明度で表示される。第1のユーザインタフェースを見ているユーザを検出したことに応じて、電子デバイスは、任意選択的に、第2のユーザインタフェースのサイズ、色、コントラスト、輝度、及び/又は明瞭性を減少させ、及び/又は透明度を増加させ、第1のユーザインタフェースのサイズ、コントラスト、輝度、及び/又は明瞭性を増加させ、色を明るくし、及び/又は透明度を減少させる。
ユーザの視線が第2のユーザインタフェースから第1のユーザインタフェースに移動するのを検出したことに応じて第1及び第2のユーザインタフェースの視覚特性を変更する上述の方法は、電子デバイスが、ユーザが現在見ているユーザインタフェースを効率的に視覚的に強調することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツをより迅速に読むことを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Gに示すように、ユーザの視線が第1のユーザインタフェース(例えば、700)に向けられている間、かつ第2のユーザインタフェース(例えば、714)に対する第1のユーザインタフェース(例えば、700)の減少された量の視覚的強調解除で第1のユーザインタフェース(例えば、700)及び第2のユーザインタフェース(例えば、714)を表示している間、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線(例えば、716f)が第1のユーザインタフェース(例えば、700)から第2のユーザインタフェース(例えば、714)に移動したことを判定する(1022)(例えば、ユーザが第1のユーザインタフェースを見ている間、第1のユーザインタフェースは、増大されたサイズ、コントラスト、明瞭性、及び/又は、輝度、明るい色、及び/又は、減少された透明度で表示され、第2のユーザインタフェースは、ユーザが第1のユーザインタフェースを見ている間、第1のユーザインタフェースの提示と比較して減少されたサイズ、コントラスト、明瞭性、及び/又は、輝度、くすんだ色、及び/又は、増大された透明度で表示される)。
いくつかの実施形態では、図7Gに示すように、ユーザの視線(例えば、716f)が第1のユーザインタフェース(例えば、700)から第2のユーザインタフェース(例えば、714)に移動したという判定に応じて(1024)、電子デバイス(例えば、101)は、第1のユーザインタフェース(例えば、700)及び第2のユーザインタフェース(例えば、714)を、図7Cに示すように、第1のユーザインタフェース(例えば、700)を第2のユーザインタフェース(例えば、714)に対して視覚的に強調解除して表示する(1026)(例えば、第1のユーザインタフェースを見ているユーザを検出する前に、視覚的強調解除のレベルを強調解除の量と同じになるように復元する)。
いくつかの実施形態では、第2のユーザインタフェースは、減少された透明度、減少されたぼやけ、増大された輝度又はコントラスト、増大されたサイズなどで表示され、第1のユーザインタフェースは、増大された透明度、増大されたぼやけ、減少された輝度又はコントラスト、減少されたサイズなどで表示される。いくつかの実施形態では、第2のユーザインタフェースを見ているユーザを検出したことに応じて、電子デバイスは、ユーザが第2のユーザインタフェースを見ている間に、第1及び第2のユーザインタフェースの提示と比較して、増大されたサイズ、コントラスト、明瞭性、及び/又は輝度、明るい色、及び/又は減少された透明度で第2のユーザインタフェースを表示し、減少されたサイズ、コントラスト、明瞭性、及び/又は輝度、くすんだ色、及び/又は増大された透明度で第1のユーザインタフェースを表示する。
第2のユーザインタフェースを見ているユーザを検出したことに応じて第1及び第2のユーザインタフェースの視覚特性を変更する上述の方法は、電子デバイスが、ユーザが見ているユーザインタフェースを視覚的クラッタを低減して効率的に表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが見ているユーザインタフェースをより迅速に演出できるようにすることによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザの頭部の動きを検出したことに応じて(1028)、頭部の動きが第1の基準(例えば、側方への移動、次いで前方への移動)を満たし、ユーザの視線がユーザインタフェースの個別の部分(例えば、コンテンツ領域の外側にあり、任意選択的に、コンテンツ領域の左側などのコンテンツ領域から第1の方向にある部分)に向けられているという判定に従って、電子質問は、図7G~図7Hのように、第2のユーザインタフェースから第1のユーザインタフェースに戻るようにナビゲートしながら、第2のユーザインタフェースと第1のユーザインタフェースとの間のアニメーション化された遷移を表示する(1030)。第2のユーザインタフェースが第1のユーザインタフェース上に重ね合わされるいくつかの実施形態では、電子デバイスは、ユーザが第1のユーザインタフェースの部分を見ていることを検出する。
いくつかの実施形態では、頭部の動きが第1の基準を満たさず、ユーザの視線がユーザインタフェースの個別の部分に向けられているという判定に従って、電子デバイス(例えば、101)は、第2のユーザインタフェースと間の完全なアニメーション化された遷移を表示することなく、図7Gのような、第2のユーザインタフェースと第1のユーザインタフェースとの間に、アニメーション化された遷移の第1の部分を表示する(1032)。
いくつかの実施形態では、電子デバイスは、ユーザがユーザインタフェースのどちらを見ているかに応じて変化する第1及び第2のユーザインタフェースの視覚特性のアニメーションを表示する。例えば、ユーザが第2のユーザインタフェースから第1のユーザインタフェースに視線を移動させたことを検出したことに応じて、電子デバイスは、第1のユーザインタフェースが大きくなり、より鮮明になり、第2のユーザインタフェースが小さくなり、あまり鮮明でなくなるアニメーションを表示する。いくつかの実施形態では、アニメーションの進行は、ユーザの頭部がどれだけ動いたかに比例する。いくつかの実施形態では、ユーザが頭部をより大きな量だけ動かすと、アニメーションはより大きな量だけ進行する。
ユーザが頭部を動かすと、ユーザインタフェースの視覚特性の変化をアニメーション化する上述の方法は、電子デバイスが、頭部の動きがユーザインタフェース間のナビゲーションを引き起こすことを示す効率的な視覚フィードバックをユーザに提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが頭部の動きによってユーザインタフェース間をより迅速にナビゲートすることを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、アニメーション化された遷移の第1の部分の大きさは、頭部の移動量に依存する(1034)。例えば、ユーザが頭部を第1の量だけ動かす場合、アニメーションは第1の量だけ進行し、ユーザが頭部をより大きな量だけ動かす場合、アニメーションはより大きな量だけ進行する。
ユーザが頭部を動かす量に応じた量だけユーザインタフェースの視覚特性の変化をアニメーション化する上記の方法は、電子デバイスが、頭部の動きがユーザインタフェース間のナビゲーションを引き起こすことを示す効率的な視覚フィードバックをユーザに提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが頭部の動きによってユーザインタフェース間をより迅速にナビゲートすることを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、アニメーション化された遷移の第1の部分は、頭部の移動速度及び/又は移動方向(前方及び/又は後方への移動を含む)に基づいて決定された速度及び/又は方向で進行する(1036)。いくつかの実施形態では、電子デバイスは、ユーザの頭部の比較的遅い動きを検出したことに応じて、比較的遅い速度でアニメーションを進行させ、ユーザの頭部の比較的速い動きを検出したことに応じて、比較的速い速度でアニメーションを進行させる。電子デバイスは、任意選択的に、第1の方向へのユーザの頭部の動きを検出したことに応じてアニメーションを前に進行させ、任意選択的に、第1の方向とは反対の第2の方向へのユーザの頭部の動きを検出したことに応じてアニメーションを逆に進行させる。
頭部の動きの速度又は方向に基づく速度又は方向でユーザインタフェースの視覚特性の変化をアニメーション化する上述の方法は、電子デバイスが、頭部の動きがユーザインタフェース間のナビゲーションを引き起こすことを示す効率的な視覚フィードバックをユーザに提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが頭部の動きによってユーザインタフェース間をより迅速にナビゲートすることを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、頭部の動きが第1の基準を満たさずに頭部の動きの終了(例えば、頭部のジェスチャの終了又は視線の終了)を検出したことに応じて、電子デバイス(例えば、101)は、図7Cに示すように、第2のユーザインタフェース(例えば、714)に対して視覚的に強調解除された第1のユーザインタフェース(例えば、700)に戻るアニメーション化された遷移を表示する(1038)(例えば、アニメーション化された遷移の第1の部分を反転させる)。いくつかの実施形態では、頭部の動きの終了は、ユーザが頭部の動きを停止するか、又は頭部が頭部の動きの開始前のように位置決めされるように、頭部の動きを反転させることを検出することに対応する。
第2のユーザインタフェースに対して視覚的に強調解除された第1のユーザインタフェースに戻るアニメーション化された遷移は、任意選択的に、逆に再生される第2のユーザインタフェースに対して第1のユーザインタフェースの強調解除の量を減少するアニメーション化された遷移である。いくつかの実施形態では、電子デバイスは、第1のユーザインタフェースから目を離すユーザを検出したことに応じて、第2のユーザインタフェースに対して視覚的に強調解除された第1のユーザインタフェースに戻るアニメーション化された遷移を表示する。第2のユーザインタフェースに対して視覚的に強調解除された第1のユーザインタフェースに戻るアニメーション化された遷移を表示する上述の方法は、電子デバイスが、頭部の動きがユーザインタフェース間のナビゲーションを引き起こすことを示す効率的な視覚フィードバックをユーザに提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが頭部の動きによってユーザインタフェース間をより迅速にナビゲートすることを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第1の基準は、ユーザの頭部を横に傾ける動きを必要とする基準を含む(1040)。いくつかの実施形態では、基準は、ユーザが頭部を左又は右に傾ける場合に満たされ、基準は、ユーザが頭部を左に傾ける場合に満たされ、又は基準は、ユーザが頭部を右に傾ける場合に満たされる。電子デバイスは、任意選択的に、第1のユーザインタフェース上に重ね合わされた第2のユーザインタフェースを表示し、第1のユーザインタフェースの部分が見える。例えば、第2のユーザインタフェースは、第1のユーザインタフェースの左側に重ねて表示され、第1のユーザインタフェースの部分は、第2のユーザインタフェースの右側に表示されたままであり、少なくともユーザの頭部の右への移動を検出したことに応じて、電子デバイスは、第1のユーザインタフェースに戻るようにナビゲートする。
少なくともユーザの頭部の横への動きを検出したことに応じて第1のユーザインタフェースに戻るようにナビゲートする上記の方法は、電子デバイスが、第2のユーザインタフェースから第1のユーザインタフェースにナビゲートする効率的で直感的な方法を提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがユーザインタフェース間をナビゲートするのにかかる時間を短縮することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第1の基準は、ユーザのユーザの前方移動を必要とする基準を含む(例えば、ユーザの身体に対して)(1042)。いくつかの実施形態では、少なくともユーザの身体に対する前方方向へのユーザの頭部の動きを検出したことに応じて、電子デバイスは、第2のユーザインタフェースから第1のユーザインタフェースにナビゲートする。
少なくともユーザの頭部の前方への動きを検出したことに応じて第1のユーザインタフェースに戻るようにナビゲートする上記の方法は、電子デバイスが、第2のユーザインタフェースから第1のユーザインタフェースにナビゲートする効率的で直感的な方法を提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがユーザインタフェース間をナビゲートするのにかかる時間を短縮することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Cに示すように、第1のユーザインタフェース(例えば、700)から第2のユーザインタフェース(例えば、714)にナビゲートすることは、第1のユーザインタフェース(例えば、700)に重ね合わされた第2のユーザ(例えば、714)インタフェースを表示することを含む(1044)。いくつかの実施形態では、第2のユーザインタフェースは、第2のユーザインタフェースが表示されている間に第1のユーザインタフェースの部分が見えるように、第1のユーザインタフェースの部分に重ね合わされる。例えば、第2のユーザインタフェースは、第1のユーザインタフェースの左部分に重ね合わされ、第1のユーザインタフェースの右部分は、第2のユーザインタフェースの右に見える。
第1のユーザインタフェース上に重ね合わされた第2のユーザインタフェースを表示する上述の方法は、電子デバイスが第2のユーザインタフェースと第1のユーザインタフェースの部分とを同時に表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが第1のユーザインタフェースの部分を見ることを可能にすることによって、第1のユーザインタフェースに戻るようにナビゲートする要求を入力する前に、ユーザが第1のユーザインタフェースに戻ることを望むか否かをユーザが知ることができる)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第1のユーザインタフェースから第2のユーザインタフェースにナビゲートすることは、第1のユーザインタフェースを強調解除することと、ユーザの視線が第2のユーザインタフェースに向けられているという判定に従って、第2のユーザインタフェースを強調表示することとを含む(1046)。いくつかの実施形態では、第1のユーザインタフェースを強調解除することは、第1のユーザインタフェースのサイズ、コントラスト、輝度、不透明度、及び/又は明瞭性を減少することのうちの1つ以上を含み、第2のユーザインタフェースを強調表示することは、第2のユーザインタフェースのサイズ、コントラスト、輝度、不透明度、及び/又は明瞭性を増大させることのうちの1つ以上を含む。
第1のユーザインタフェースから第2のユーザインタフェースへのナビゲートの一部として第1のユーザインタフェースを強調解除し、第2のユーザインタフェースを強調表示する上述の方法は、ユーザが第2のユーザインタフェースを見ている間に、電子デバイスが視覚的クラッタを低減してユーザインタフェースを効率的に表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが第2のユーザインタフェースをより迅速に理解できるようにし、第2のユーザインタフェースから第1のユーザインタフェースに戻る効率的なナビゲーション方法を提供することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、第2のユーザインタフェース(例えば、714)を表示している間(例えば、第2のユーザインタフェースにナビゲートしている間に)、ユーザの視線の特性(例えば、時間の長さ)が第2の基準を満たしていない間、又はユーザの頭部の動きが第1の基準を満たしていない間(例えば、頭部運動の時間の長さ、頭部運動の距離、及び/又は頭部運動の速度が1つ以上の基準を満たさない、及び/又は視線の位置、持続時間、及び/又は他の特性が1つ以上の基準を満たさない)、電子デバイス(例えば、101)は、図7Gのように、ユーザの視線又はユーザの頭部の動きに基づいて、第2のユーザインタフェース(例えば、714)の外観(例えば、又は第1のユーザインタフェースの外観)を変更しながら第2のユーザインタフェース(例えば、714)の表示を継続する(1048)(例えば、第1のユーザインタフェース上のユーザの視線及びユーザの頭部の動きを検出する前に、第1のユーザインタフェース及び第2のユーザインタフェースの外観を比較して、コントラスト、輝度、サイズ、不透明度、及び/又は、明瞭性が増加した状態で第1のユーザインタフェースを表示し、コントラスト、輝度、サイズ、不透明度、及び/又は、明瞭性が減少した状態で第2のユーザインタフェースを表示する)。
いくつかの実施形態では、ユーザの視線の特性が第2の基準を満たし、ユーザの頭部の動きが第1の基準を満たすという判定に従って、電子デバイス(例えば、101)は、図7Bのように、第2のユーザインタフェース(例えば、714)から第1のユーザインタフェース(例えば、700)に戻るようにナビゲートする(1050)。
いくつかの実施形態では、第2のユーザインタフェースにナビゲートし続けることは、第2のユーザインタフェースの表示を継続すること(例えば、第1のユーザインタフェース上に重ね合わされる)を含む。更に、電子デバイスが第2のユーザインタフェースにナビゲートされている間に、ユーザが第1及び第2のユーザインタフェースの両方から目を離す(例えば、電子デバイスのシステムユーザインタフェース又はシステムユーザインタフェース要素を見たり、表示生成コンポーネントの表示領域から目を離したりする)場合、電子デバイスは、ユーザが第2のユーザインタフェースを見ている間に表示されていた方法で第1及び第2のユーザインタフェースを表示することに戻る。
いくつかの実施形態では、第2のユーザインタフェースから第1のユーザインタフェースに戻るナビゲーションは、第2のユーザインタフェースの表示を停止することを含む。更に、電子デバイスが一旦第1のユーザインタフェースに戻ると、上述したようにユーザが第1のユーザインタフェースから目を離す場合、電子デバイスは、第2のユーザインタフェースを表示せずに第1のユーザインタフェースを表示し続ける。
ユーザの視線及びユーザの頭部の動きが所定の基準を満たしていることを検出したことに応じて第1のユーザインタフェースに戻るが、第1のユーザインタフェースに戻るのに十分ではない頭部/視線入力に基づいて、第1及び第2のユーザインタフェースの両方の外観を変更する上記の方法は、電子デバイスが、頭部の動きを実行し続け、第1のユーザインタフェースを見続けることによって第1のユーザインタフェースにナビゲーションを戻すフィードバックをユーザに効率的に提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがそうしようとするときに、ユーザが第1のユーザインタフェースへとより迅速に戻ることを可能にすることによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7G(例えば、第2のユーザインタフェースにナビゲートし、第1のユーザインタフェースの少なくとも部分を表示している間に)のように、第2のユーザインタフェース(例えば、714)の外観が変更された第2のユーザインタフェース(例えば、714)を表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線(例えば、716f)が第2のユーザインタフェース(例えば、714)に向けられていると判定する(1052)(例えば、又は第1のユーザインタフェース)。
いくつかの実施形態では、ユーザの視線(例えば、716f)が第2のユーザインタフェース(例えば、714)に向けられていると判定したことに応じて、図7Gに示すように、電子デバイス(例えば、101)は、図7Cのように、第2のユーザインタフェース(例えば、714)の外観を初期外観に戻す(1054)。
いくつかの実施形態では、変化した外観は、ユーザが第1のユーザインタフェースを見て頭部の動きを実行する前に第2のユーザインタフェースを見ていた間の第2のユーザインタフェースの初期外観と比較して縮小されたサイズ、コントラスト、明瞭性、及び/又は不透明度のうちの1つ以上を含む。
いくつかの実施形態では、第2のユーザインタフェースの外観を初期外観に戻すことは、第1のユーザインタフェースにナビゲートして戻ることを取り止めることを含む。電子デバイスはまた、任意選択的に、頭部の動きを実行しながら第1のユーザインタフェースを見ているユーザを検出したことに応じて、第1のユーザインタフェースの外観と比較してサイズ、コントラスト、明瞭性、及び/又は不透明度が減少した初期外観に第1のユーザインタフェースを戻す。
ユーザが第2のユーザインタフェースを見ていることを検出したことに応じて第2のユーザインタフェースの外観を初期外観に戻す上記の方法は、電子デバイスが、第1のユーザインタフェースにナビゲートして戻るプロセスを停止し、第2のユーザインタフェースを見続けるための効率的な方法をユーザに提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、初期外観を有する第2のユーザインタフェースの表示を再開する迅速かつ効率的な方法を提供することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、電子デバイス(例えば、101)は、ユーザインタフェースに、テキストコンテンツを表示する(例えば、テキストコンテンツは、第1及び第2のユーザインタフェース上に重ね合わされるか、又は第1又は第2のユーザインタフェースに表示される)(1056)。
いくつかの実施形態では、テキストコンテンツを表示している間に、電子デバイス(例えば、101)は、テキストコンテンツの表示を停止する要求(例えば、視線検出デバイス以外の電子デバイスと通信する入力デバイスのうちの1つで受信されたユーザ入力)を検出する(1058)。
いくつかの実施形態では、テキストコンテンツの表示を停止する要求を検出したことに応じて(1060)、テキストコンテンツが1つ以上の基準を満たさないという判定に従って、電子デバイス(例えば、101)は、テキストコンテンツ(例えば、1つ以上の基準は、重要な警告、ユーザ又はシステムによって重要であると示されたアプリケーションによって生成された通知、又はテキスト作成者によって重要であると示されたテキストなどの所定の通知イベントに関連付けられる)の表示を停止する(1062)。
いくつかの実施形態では、テキストコンテンツが1つ以上の基準を満たすという判定に従って(1064)(例えば、1つ以上の基準は、重要な警告、ユーザ又はシステムによって重要であると示されたアプリケーションによって生成された通知、又はテキスト作成者によって重要であると示されたテキストなどの所定の通知イベントに関連付けられる)、ユーザがテキストコンテンツを読んだという判定(例えば、視線トラッキングデバイスを介して)に従って、電子デバイス(例えば、101)は、テキストコンテンツの表示を停止する(例えば、電子デバイスは、視線トラッキングコンポーネントによってキャプチャされたデータに基づいて、ユーザの目の動きがテキストコンテンツの読み取りと一致すると判定する)(1066)。
いくつかの実施形態では、ユーザがテキストコンテンツを読んでいないという判定(例えば、視線トラッキングデバイスを介して)に従って、電子デバイス(例えば、101)は、テキストコンテンツの表示を維持する(1068)。
テキストコンテンツは、任意選択的に、通知イベントのインジケーションに関連付けられたテキストを含む。例えば、テキストコンテンツは、電子デバイスで受信されたメッセージのメッセージプレビューであり、メッセージプレビューは、メッセージの受信を示す通知インジケーションで表示される。いくつかの実施形態では、テキストは、ソフトウェア製品又は電子デバイスサービスに関連する条項及び条件テキストである。
いくつかの実施形態では、入力は、上述したように、例えば第2のユーザインタフェースから離れるようにナビゲートするための視線入力である。
例えば、入力は、キーボードのキーの押下、タッチスクリーン、トラックパッド、マウスなどを介して行われたテキストの表示を停止するオプションの選択、又は音声コマンドのうちの1つである。
テキストが基準を満たさないという判定に従って、電子デバイスは、ユーザ要求に応じてテキストの表示を停止する(例えば、テキストコンテンツが第2のユーザインタフェースに含まれている例では、第2のユーザインタフェースから離れてナビゲートし、第2のユーザインタフェースの表示を中止する)。
テキストの表示を停止する要求に対応する入力を検出したことに応じて、ユーザがテキストを読んだという判定に従って、電子デバイスは、テキストの表示を停止する(例えば、テキストコンテンツが第2のユーザインタフェースに含まれる実施例では、第2のユーザインタフェースから離れるようにナビゲートし、その表示を中止する)。
いくつかの実施形態では、テキストが1つ以上の基準を満たす場合、ユーザは、テキストの表示を停止する要求に対応するユーザ入力に応じて、テキストを破棄するためにテキストを読まなければならない。
ユーザがテキストを読んだことを検出したことに応じて、及びテキストの表示を停止するように要求する入力に応じてのみ、1つ以上の基準を満たすテキストを破棄する上記の方法は、ユーザによって読まれるまで電子デバイスが重要なテキストを効率的に表示し続けることを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、テキストを読むためにテキストにアクセスするためにユーザが必要とする入力を減らすことによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、電子デバイス(例えば、101)は、ユーザインタフェース内に、個別のアプリケーションに関連付けられた通知(例えば、706)を表示する(例えば、通知は、電子デバイスで検出された通知イベントを示すテキスト又は画像を含む)(1070)。例えば、通知イベントはメッセージの受信であり、通知はメッセージのテキスト及びメッセージが受信されたユーザアカウントのインジケーションを含む。メッセージの通知は、任意選択的にメッセージングアプリケーションに関連付けられる。
いくつかの実施形態では、個別のアプリケーションに関連付けられた通知(例えば、706)を表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイスを介して、ユーザが通知(例えば、706)を読んだと判定する(1072)(例えば、通知を見ている間のユーザの目の動きは、読み取りと一致する)。いくつかの実施形態では、電子デバイスは、ユーザが通知に含まれる全てのテキストを読んだと判定する。
いくつかの実施形態では、ユーザが通知(例えば、706)を読んだという判定に応じて(例えば、ユーザが通知の読み取りを完了したという判定)、電子デバイス(例えば、101)は、表示生成コンポーネント(例えば、120)を介して、個別のアプリケーションのユーザインタフェースを表示する(1074)。例えば、通知はメッセージの通知であり、ユーザが通知を読んだことを検出したことに応じて、電子デバイスはメッセージングアプリケーションを表示する。いくつかの実施形態では、ユーザが通知を読み終えていないという判定に従って、電子デバイスは、個別のアプリケーションのユーザインタフェースの表示を取り止める。
ユーザが読んだ通知に関連付けられたアプリケーションのユーザインタフェースを表示する上述の方法は、電子デバイスが通知に関連付けられた追加情報を効率的な方法で提示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが読んだ通知に関連付けられたアプリケーションを開くのに必要な入力を減らすことによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線が第2のユーザインタフェース(例えば、714)に向けられていると判定している間に(1076)、ユーザの頭部が第1の位置にあるという判定に従って、電子デバイス(例えば、101)は、第1のテキストスタイル(例えば、第1のスタイルは、フォント、テキストサイズ、及び/又は太字、斜体、若しくは下線などのテキストスタイリングを含む)で第2のユーザインタフェース(例えば、714)のテキストコンテンツを表示する(1078)。
いくつかの実施形態では、ユーザの頭部が第1の位置とは異なる第2の位置にあるという判定に従って、電子デバイス(例えば、101)は、第2のユーザインタフェース(例えば、714)のテキストコンテンツを第1のテキストスタイルとは異なる第2のテキストスタイルで表示する(1080)。例えば、ユーザが自分の身体の残りの部分に対して及び/又は頭部の初期位置に対して頭部を前方に動かす場合、電子デバイスは、任意選択的に、ユーザが頭部を動かす前に表示されたフォントよりも大きいサイズ又は異なるフォント(例えば、より高い解像度(DPI)を有するが同じサイズのフォント、又は、任意選択的に、より長い距離からより読みやすい、元の表示のフォントよりも短い距離からより読みやすいフォント)でテキストを表示する。
ユーザの頭部の動きを検出したことに応じてテキストスタイルを変更する上記の方法は、電子デバイスが、テキストの装飾のサイズ又はレベルなどの、異なる頭部/目の距離でのテキスト表示を最適化するためにテキストのスタイルを変更する効率的な方法を提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、テキストをより読みやすくする、又は審美的に満足させるのに必要な入力を減らすことによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
図11は、いくつかの実施形態による、ユーザの頭部の動きの検出及びユーザの視線の検出に従ってコンテンツの部分に関連する拡張コンテンツを表示する方法1100を示すフローチャートである。いくつかの実施形態では、方法1100は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法1100は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法1100の一部の動作が任意選択的に組み合わされ、及び/又はいくつかの動作の順序が任意選択的に変更される。
方法1100では、いくつかの実施形態では、表示生成コンポーネント(例えば、120)及び視線トラッキングデバイス(例えば、314)(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ)、コンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータ)、又はウェアラブルデバイス(例えば、ウォッチ、頭部装着型デバイス)と通信する電子デバイス(例えば、コンピューティングシステム(例えば、101))は、表示生成コンポーネント(例えば、120)を介して、第1の拡張コンテンツに関連付けられた第1の部分(例えば、718a)と、図7Iのような第2の拡張コンテンツ(例えば、テキストコンテンツ)に関連付けられた第2の部分(例えば、718b)とを含む第1のコンテンツを含むユーザインタフェースを表示する(1102)。いくつかの実施形態では、コンテンツアイテムは、テキスト及び/又は画像を含む)。
いくつかの実施形態では、ユーザインタフェースを表示している間に、電子デバイス(例えば、101)は、ユーザの頭部の動き(例えば、ユーザの身体に対するユーザの頭部の前方への動き)を検出する(1104)。
いくつかの実施形態では、ユーザの頭部の動きを検出したことに応じて(1106)、ユーザの視線(例えば、716i)が第1のコンテンツ(例えば、視線トラッキングデバイスは、図6を参照してより詳細に上述したように、ユーザの目の1つ以上の画像を任意選択的に捕捉し、1つ以上の捕捉された画像内の瞳孔及びグリントを検出してユーザの視線を追跡する)の第1の部分(例えば、718a)に向けられているという判定と、ユーザの視線(例えば、716i)が、図7Iなどの第1のコンテンツアイテムの第1の部分に向けられている間のユーザの頭部の動きが第1の基準を満たすという判定とに従って(例えば、頭部の前方への移動(例えば、仮想環境内の個別の部分に向かって))、電子デバイス(例えば、101)は、図7Jなどの、第1のコンテンツの第2の部分に関連付けられた第2の拡張コンテンツを含むようにユーザインタフェースを更新することなく、第1のコンテンツの第1の部分(例えば、718a)に関連付けられた第1の拡張コンテンツ(例えば、720a)を含むようにユーザインタフェースを更新する(例えば、拡張コンテンツは、追加のテキスト及び/又は画像のうちの1つ以上を含む)(1108)。
いくつかの実施形態では、ユーザの視線(例えば、716n)が第1のコンテンツアイテムの第2の部分に向けられている間のユーザの頭部の動きが第1の基準を満たすという判定に従って、電子デバイス(例えば、101)は、図7Kなどの、第1のコンテンツの第1の部分に関連付けられた第1の拡張コンテンツを含むようにユーザインタフェースを更新することなく、第1のコンテンツの第2の部分(例えば、718b)(例えば、718b)に関連付けられた第2の拡張コンテンツ(例えば、720b)(例えば、1つ以上の基準を満たす頭部の動きを実行しながら、ユーザが第1のコンテンツアイテムの個別の部分を見ていることを検出したことに応じて表示される拡張コンテンツは、ユーザが第1のコンテンツアイテムのどの部分を見ているかに応じて異なる)を含むようにユーザインタフェースを更新する(1110)。
いくつかの実施形態では、ユーザの頭部の動きが第1の基準を満たさなかったという判定に従って、電子デバイス(例えば、101)は、第1の拡張コンテンツを含むようにユーザインタフェースを更新することを取り止め、第2の拡張コンテンツを含むようにユーザインタフェースを更新することを取り止める(1112)。
いくつかの実施形態では、表示生成コンポーネントは、電子デバイス(任意選択的にタッチスクリーン)及び/又はモニタ、プロジェクタ、テレビなどの外部ディスプレイと統合されたディスプレイである。いくつかの実施形態では、視線トラッキングデバイスは、1つ以上のカメラ(単数又は複数)(例えば、IRカメラ、NIRカメラ、可視光カメラなど)を含む。
例えば、コンテンツアイテムは、記事、メッセージ、電子書籍、又はテキストを含む他のコンテンツである。いくつかの実施形態では、第1の部分は、テキストコンテンツの第1の単語であり、第2の部分は、テキストコンテンツの第2の単語である。
いくつかの実施形態では、ユーザが頭部を前方に動かしていることを検出することは、ユーザが見ている方向及び/又は表示生成コンポーネント及び/又は視線トラッキングデバイスの方向に頭部を動かしていることを検出することを含む。1つ以上の基準は、任意選択的に、少なくとも所定の時間量にわたって頭部の動きを実行すること、少なくとも所定の距離だけ頭部を動かすこと、及び/又は所定の範囲内の速度で頭部を動かすことなどの、時間及び距離に基づく基準を更に含む。
例えば、第1のコンテンツアイテムの第1の部分は単語であり、拡張コンテンツは単語の定義である。別の例として、第1のコンテンツアイテムの第1の部分はウェブサイトへのハイパーリンクであり、第1の拡張コンテンツはウェブサイトのプレビューである。別の例として、拡張コンテンツは、第1のコンテンツアイテムの第1の部分の拡大バージョンである。例えば、第1のコンテンツアイテムの第1の部分は画像の一部であり、拡張コンテンツは完全な画像である。別の例として、拡張コンテンツは、第1のコンテンツアイテムの第1の部分と同じであるが、より大きなサイズで表示される。いくつかの実施形態では、拡張コンテンツは、第1のコンテンツアイテムを補足する第1のコンテンツアイテムの第1の部分に関連する。拡張コンテンツは、任意選択的に、第1のコンテンツアイテムに含まれない。いくつかの実施形態では、拡張コンテンツの表示は、電子デバイスと通信する別の入力デバイスから追加の入力を受信することなく、ユーザの視線及び頭部の動きを検出したことに応じて実行される。
いくつかの実施形態では、拡張コンテンツのコンテンツのタイプは、ユーザが第1のコンテンツアイテムのどの部分を見るかに応じて変化する。例えば、第1のコンテンツアイテムの第1の部分が単語である場合、第1の拡張コンテンツは定義であり、第1のコンテンツアイテムの第2の部分がウェブサイトリンクである場合、第2の拡張コンテンツはウェブサイトのプレビューであり、拡張コンテンツの第2の部分が画像である場合、第2の拡張コンテンツは別の画像である。いくつかの実施形態では、拡張コンテンツの表示は、電子デバイスと通信する別の入力デバイスから追加の入力を受信することなく、ユーザの視線及び頭部の動きを検出したことに応じて実行される。
いくつかの実施形態では、ユーザが1つ以上の基準を満たす頭部の動きを実行しなかったと判定することは、ユーザは頭部を動かしていない、又は1つ以上の基準を満たさない方法で頭部を動かしていると判定することを含む。例えば、ユーザが誤った頭部の動きを実行した場合(例えば、前方に動かすのではなく、右又は左に動かす又は旋回する)、誤った方向に動かした場合(例えば、前方ではなく後方に動かす)、上述した時間又は距離に基づく基準を満たさない方法で動かす場合、又はコンテンツの個別の部分を見ている間に全く頭部を動かさない場合、電子デバイスは、コンテンツのその個別の部分に対応する拡張コンテンツを含むようにユーザインタフェースを更新することを取り止める。
ユーザの視線及び頭部の動きに応じて拡張コンテンツを表示する上述の方法は、電子デバイスが、ユーザの視線及び頭部の動きのみに応じてユーザが見ているコンテンツアイテムの部分に関連する拡張コンテンツを迅速に表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが拡張コンテンツを要求する入力を提供するのにかかる時間を短縮し、拡張コンテンツの誤った表示を低減することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jのような第1の拡張コンテンツ(例えば、720a)は、第1のコンテンツの第1の部分(例えば、718a)の定義、第1のコンテンツの第1の部分(例えば、718a)のウェブサイトプレビュー、又は図7Kのような第1のコンテンツの第1の部分(例えば、718a)及び第2の拡張コンテンツ(例えば、720b)の拡大バージョンのうちの1つであり、第1のコンテンツの第2の部分(例えば、718b)の定義、第1のコンテンツの第2の部分(例えば、718b)のウェブサイトプレビュー、又は第1のコンテンツの第2の部分(例えば、718b)の拡大バージョンのうちの1つである(1114)。
例えば、コンテンツの個別の部分は単語であり、拡張コンテンツは単語の定義である。別の例として、コンテンツの個別の部分は画像(又は画像の部分)であり、拡張コンテンツは画像の拡大バージョン(又は画像の全体)である。別の例として、コンテンツの個別の部分はハイパーリンクであり、拡張コンテンツはハイパーリンクのコンテンツのプレビューである。
定義、画像、又はウェブサイトプレビューを表示する上記の方法は、コンテンツアイテムを表示し続けながら、電子デバイスがコンテンツの部分に追加のコンテキストを迅速かつ効率的に提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツアイテムの個別の部分に関連付けられた定義、画像、又はウェブサイトプレビューを見るのにかかる時間を短縮することによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示される第1の拡張コンテンツ(例えば、720a)又は図7Kに示される第2の拡張コンテンツ(例えば、720b)を表示する前に(1116)、ユーザの頭部の動きを検出する前に、電子デバイス(例えば、101)は、図7Cのように、第1の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)及び第1のコンテンツの第2の部分(例えば、718b)を表示する(1118)(例えば、視覚特性は、サイズ、色、太さ、又は強調表示(又はそれらの欠如)のうちの1つ以上である)。
いくつかの実施形態では、ユーザの頭部の動きの少なくとも部分(例えば、電子デバイスは、閾値時間の量、距離、又は何らかの他の基準を超えるユーザの頭部の動きを検出したことに応じて拡張コンテンツを表示する)を検出したことに応じて(1120)、ユーザの視線(例えば、716i)が第1のコンテンツの第1の部分(例えば、718a)に向けられているという判定と、ユーザの視線(例えば、716i)がコンテンツの第1の部分(例えば、718a)に向けられている間に、ユーザの頭部の動きの少なくとも部分が第1の基準を満たす方向への進行であることを必要とする基準を含む、1つ以上の第2の基準が満たされているという判定とに従って、電子デバイス(例えば、101)は、図7Iのように、第1の値を有する視覚特性で第1のコンテンツの第2の部分(例えば、718a)を維持している間に、第1の値とは異なる第2の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718b)を表示するようにユーザインタフェースを更新する(1122)(例えば、1つ以上の第2の基準は、任意選択的に1つ以上の第1の基準と同様であるが、1つ以上の第1の基準を満たすことなく1つ以上の第2の基準を満たすことが可能である)。
いくつかの実施形態では、ユーザの頭部の動きの部分は、閾値時間若しくは距離を超えないか、又は拡張コンテンツを表示するための他の基準を満たさない。
例えば、1つ以上の第1の基準は、ユーザが頭部を所定量(例えば、2cm、3cm、4cmなど)動かし、所定の時間量(例えば、1秒)動かし続けた場合に満たされ、1つ以上の第2の基準は、ユーザが頭部をより小さい量及び/又はより短い時間動かした場合に満たされる。第2の値を有する視覚特性でコンテンツの第1の部分を表示することは、任意選択的に、第1の値を有する視覚特性でコンテンツの第1の部分の提示と比較して、コンテンツの第1の部分をより大きなサイズで、強調表示して、追加の輪郭を用いて、又は追加のテキストスタイリング(例えば、太字、下線、斜体)を用いて表示することを含む。一方、いくつかの実施形態では、コンテンツアイテムの第2の部分は、任意選択的に、ユーザの頭部の動きを検出する前と同じ視覚的外観で表示され続ける。いくつかの実施形態では、1つ以上の第1の基準が満たされないという判定に従って、電子デバイスは、第2の値を有する視覚特性で第1のコンテンツの第1の部分を表示するために、ユーザインタフェースを更新することを取り止める。
いくつかの実施形態では、ユーザの視線(例えば、716n)が第1のコンテンツの第2の部分(例えば、718b)に向けられているという判定、及びユーザの視線(例えば、716n)がコンテンツの第2の部分(例えば、718b)に向けられている間に、1つ以上の第2の基準が満たされるという判定に従って、電子デバイス(例えば、101)は、図7Kのように、第1の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718b)を維持している間に、第2の値を有する視覚特性で第1のコンテンツの第2の部分(例えば、718a)を表示するようにユーザインタフェースを更新する(1124)。
第2の値を有する視覚特性でコンテンツの第1の部分を表示することは、任意選択的に、第2の値を有する視覚特性でコンテンツの第2の部分の提示と比較して、コンテンツの第2の部分をより大きなサイズで、強調表示して、追加の輪郭を用いて、又は追加のテキストスタイリング(例えば、太字、下線、斜体)を用いて表示することを含む。一方、いくつかの実施形態では、コンテンツアイテムの第1の部分は、任意選択的に、ユーザの頭部の動きを検出する前と同じ視覚的外観で表示され続ける。いくつかの実施形態では、1つ以上の第2の基準が満たされないという判定に従って、電子デバイスは、第2の値を有する視覚特性で第1のコンテンツの第2の部分を表示するために、ユーザインタフェースを更新することを取り止める。
1つ以上の第2の基準を満たす頭部の動きを実行しながら、ユーザが見ているコンテンツアイテムの部分の視覚的外観を更新する上述の方法は、拡張コンテンツを表示する前に、拡張コンテンツの表示のためにコンテンツのどの部分が選択されるかについてのフィードバックを電子デバイスがユーザに効率的に提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがコンテンツの所望の部分について拡張コンテンツを正確に要求できるようにすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、1つ以上の第2の基準は、ユーザが時間閾値(例えば、0.2秒、0.3秒、0.4秒、0.5秒など)よりも長く図7Iに示される第1のコンテンツの第1の部分(例えば、718a)又は第1のコンテンツの第2の部分(例えば、718b)を見ることを必要とする基準を含む(1126)。
いくつかの実施形態では、1つ以上の第1の基準はまた、第2の基準に関連付けられた時間閾値よりも大きい時間閾値よりも長くユーザがコンテンツの個別の部分を見るときに満たされる基準を含む。例えば、1つ以上の第1の基準に関連する時間閾値は、任意選択的に、0.5秒、0.6秒、0.7秒、0.8秒、0.9秒、又は1秒である。
ユーザが少なくとも閾値時間にわたって個別の部分を見たと判定したことに応じて、ユーザが見ているコンテンツアイテムの個別の部分の外観を更新する上記の方法は、拡張コンテンツを見ようとせずに、ユーザがコンテンツを見ているときに電子デバイスが一貫した方法でコンテンツを表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、視覚クラッタを低減し、それによってユーザがコンテンツをより迅速に見ることを可能にすることによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、ユーザの頭部の動きの少なくとも部分を検出したことに応じて(1128)、ユーザの頭部の動きの少なくとも部分が第1の基準を満たす方向への進行ではないという判定に従って、電子デバイス(例えば、101)は、図7Cのように、第1の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)及び第1のコンテンツの第2の部分(例えば、718b)の表示を維持する(1130)。
いくつかの実施形態では、ユーザが1つ以上の第1の基準を満たす移動方向とは異なる方向に頭部を移動させるか、又は第1の基準を満たす方向に頭部を移動させながら追加の頭部の移動を行う場合、電子デバイスは、コンテンツの個別の部分の視覚特性の更新を取り止める。例えば、第1の基準に関連する頭部の動きは、ユーザの身体に対して前方への頭部の動きである。この例では、前方へ移動しない後方への頭部の移動、又は左又は右への頭部の移動は、電子デバイスにコンテンツアイテムの部分の視覚特性を更新させない。また、この例では、頭部の上下又は側方への回転を含む頭部の前方への移動は、第1の基準が追加の移動を除外する場合、電子デバイスにコンテンツアイテムの個別の部分の表示を更新させない。いくつかの実施形態では、頭部運動基準が満たされることなく、視線基準の時間閾値が満たされたとしても、第1のコンテンツの第1/第2の部分は、更新された視覚特性で表示されない。
頭部の動きが第1の基準を満たす方向への進行ではないことを検出したことに応じて、コンテンツアイテムの個別の部分の視覚特性を更新することを取り止める上記の方法は、ユーザが第1の基準に関連付けられた動きとは異なる方法で頭部を動かしたときに電子デバイスが視覚クラッタを低減してコンテンツを表示することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、頭部が静止していない場合でも、ユーザがコンテンツをより迅速に読み取ることを可能にすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示される第1の拡張コンテンツ(例えば、720a)又は図7Kに示される第2の拡張コンテンツ(例えば、720b)を表示する前に、1つ以上の第2の基準が満たされている間(1132)(例えば、ユーザは、第1のコンテンツの第1又は第2の部分を見ており、1つ以上の第2の基準を満たすが、1つ以上の第1の基準を満たさない頭部の動きを実行する)に、図7Iのように、第2の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)を表示し、第1の値を有する視覚特性で第1のコンテンツの第2の部分(例えば、718b)を表示している間に、電子デバイス(例えば、101)は、図7K(例えば、第1のコンテンツの第1の部分は、ユーザが第1のコンテンツの第1の部分を見ていることを検出したことに応じて、第2の値を有する視覚特性で表示される)のように、ユーザの視線(例えば、716n)が第1のコンテンツの第1の部分(例えば、718a)に向けられている状態から第1のコンテンツの第2の部分(例えば、718b)に向けられている状態に変化することを検出する(1134)。
いくつかの実施形態では、ユーザの視線(例えば、716n)が第1のコンテンツの第1の部分(例えば、718a)に向けられている状態から、第1のコンテンツの第2の部分(例えば、718b)に向けられている状態に変化することを検出したことに応じて(1136)、電子デバイス(例えば、101)は、図7Kに示すように、第1の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)を表示し、第2の値を有する視覚特性で第1のコンテンツの第2の部分(例えば、718b)を表示するようにユーザインタフェースを更新する(1138)。
同様に、第2の基準が満たされている間にユーザがコンテンツの第2の部分を見ている場合、電子デバイスは、任意選択的に、第2の値を有する視覚特性でコンテンツの第2の部分を表示し、第1の値を有する視覚特性でコンテンツの第1の部分を表示する。
いくつかの実施形態では、1つ以上の第2の基準が満たされている間にユーザがコンテンツの第2の部分を見ており、次いでコンテンツの第1の部分を見る場合、電子デバイスは、ユーザの視線がコンテンツの第2の部分から第1の部分に移動するのに応じて、第2の値を有する視覚特性でコンテンツの第1の部分を表示し、第1の値を有する視覚特性でコンテンツの第2の部分を表示する。いくつかの実施形態では、電子デバイスが、コンテンツの第1の部分に向けられている状態から第1のコンテンツの第2の部分に向けられている状態に変化するユーザの視線を検出しない場合、電子デバイスは、任意選択的に、第1の値を有する視覚特性で第1のコンテンツの第1の部分を表示し、第2の値を有する視覚特性で第1のコンテンツの第2の部分を表示するようにユーザインタフェースを更新することを取り止める。
コンテンツの第2の部分の第1の部分からのユーザの視線の動きを検出したことに応じてコンテンツの第1の部分及び第2の部分の視覚特性を更新する上述の方法は、電子デバイスが、表示される拡張コンテンツがコンテンツのどの部分に対応するかに関するフィードバック、及び拡張コンテンツがコンテンツのどの部分に対応するかを変更する能力をユーザに迅速かつ効率的に提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、拡張コンテンツが表示されるコンテンツの部分をユーザが正確に選択するのにかかる時間及び入力を低減することによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Kに示す第2の拡張コンテンツ(例えば、720b)を表示している間に(例えば、第1のコンテンツの第2の部分に関連付けられた拡張コンテンツ)、図7Kのように、第1の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)を、第2の値を有する視覚特性で第1のコンテンツの第2の部分(例えば、718b)を表示している間に、電子デバイス(例えば、101)は、ユーザの視線が第1のコンテンツの第2の部分(例えば、718b)に向けられている状態から第1のコンテンツの第1の部分(例えば、718a)に向けられている状態に変化することを検出する(1140)。
いくつかの実施形態では、図7Kに示すように、ユーザの視線が第1のコンテンツの第2の部分(例えば、718b)に向けられている状態から第1のコンテンツの第1の部分(例えば、718a)に向けられている状態に移動することを検出したことに応じて、電子デバイス(例えば、101)は、第1の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)と、第2の値を有する視覚特性で第1のコンテンツの第2の部分(例えば、718b)との表示を継続する(1142)。
いくつかの実施形態では、拡張コンテンツが表示されると、第1のコンテンツのある部分から別の部分へのユーザの視線の移動は、拡張コンテンツが関連付けられている第1のコンテンツの部分を変更しない。第2の拡張コンテンツは、任意選択的に、第1のコンテンツの第2の部分から第1のコンテンツの第1の部分へのユーザの視線の動きを検出したことに応じて表示され続ける。いくつかの実施形態では、第2の拡張コンテンツを表示する前に、第2の値を有する視覚特性でコンテンツの第1の部分を表示し、第1の値を有する視覚特性でコンテンツの第2の部分を表示している間に、基準を満たすユーザの頭部の動きを検出したことに応じて、電子デバイスは、第1の部分に対応する拡張コンテンツを表示する。任意選択で、コンテンツアイテムの第1の部分に対応する第1の拡張コンテンツを表示している間に、ユーザがコンテンツアイテムの第2の部分を見ていることを検出したことに応じて、電子デバイスは、第1の拡張コンテンツを表示し続け、第2の値を有する視覚特性でコンテンツアイテムの第1の部分と、第1の値を有する視覚特性で第2のコンテンツアイテムの第2の部分とを表示する。
第2の拡張コンテンツを表示している間に、第1のコンテンツの第2の部分から第1のコンテンツの第1の部分に移動するユーザの視線を検出した後に、第2の値を有する視覚特性で第1のコンテンツの第2の部分を表示し続ける上述の方法は、電子デバイスが不要なユーザインタフェースの変更(例えば、コンテンツアイテムの第1の部分及び第2の部分の視覚特性が変化するなど)を回避することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが拡張コンテンツをより迅速に検討することを可能にすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示される第1の拡張コンテンツ(例えば、720a)又は図7Kに示される第2の拡張コンテンツ(例えば、720b)を表示する前に、図7Iのように、第2の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)を表示している間に(1144)、電子デバイス(例えば、101)は、ユーザの頭部の第2の動きが第1の基準を満たすことから離れる進行であることを必要とする基準を含む、1つ以上の第3の基準を満たすユーザの頭部の第2の動きを検出する(例えば、ユーザの身体に対するユーザの頭部の前方への動きは、第1及び第2の基準を満たし、ユーザの頭部の後方への動き(例えば、中立位置まで)は、第3の基準を満たす)(1146)。
いくつかの実施形態では、1つ以上の第3の基準を満たすユーザの頭部の第2の動きを検出したことに応じて、電子デバイス(例えば、101)は、図7Cのように、第1の値を有する視覚特性で第1のコンテンツの第1の部分(例えば、718a)を表示するようにユーザインタフェースを更新する(1148)。
例えば、電子デバイスは、ユーザの頭部の前方移動を検出したことに応じて、第2の値を有する視覚特性で第1のコンテンツの第1の部分を表示し、電子デバイスは、ユーザの頭部の後方移動を検出したことに応じて、第1の値を有する視覚特性で第1のコンテンツの第1の部分を表示する。
第3の基準を満たす頭部の動きを検出したことに応じて、第1の視覚特性で表示される第1のコンテンツの第1の部分を表示するためにユーザインタフェースを元に戻す上記の方法は、ユーザが頭部の動きを逆にしたことに応じて、拡張コンテンツを表示することから後退する迅速かつ効率的な方法を提供し、これにより、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、拡張コンテンツの表示をキャンセルする効率的な方法を提供することによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示すように、第1の拡張コンテンツ(例えば、720a)を含むようにユーザインタフェースを更新することは、第1の拡張コンテンツ(例えば、720a)の表示をアニメーション化することを含み、アニメーションは、ユーザの頭部の動きに基づいて1つ以上の第1の基準を満たすように進行する量及び/又は方向に基づいて決定された量及び/又は方向だけ進行する(例えば、いくつかの実施形態では、少なくとも閾値量の頭部の動きは、1つ以上の基準を満たす)(1150)。
いくつかの実施形態では、図7Kに示す第2の拡張コンテンツ(例えば、720b)を含むようにユーザインタフェースを更新することは、第2の拡張コンテンツ(例えば、720b)の表示をアニメーション化することを含み、アニメーションは、ユーザの頭部の動きに基づいて1つ以上の第1の基準を満たすように進行する量及び/又は方向に基づいて決定された量及び/又は方向だけ進行する(1152)。
ユーザが閾値量未満の量だけ頭部を動かしたことを検出したことに応じて、電子デバイスは、任意選択的に、表示されている拡張コンテンツのアニメーションの部分を開始し、任意選択的に、ユーザが閾値量に頭部を近づけ続けるにつれてアニメーションを進行し続ける。
いくつかの実施形態では、電子デバイスは、ユーザが見ている第1のコンテンツの部分にかかわらず、ユーザの頭部の動きの進行に比例する速度で拡張コンテンツの表示をアニメーション化する。
ユーザの頭部の動きの進行に比例する速度で拡張コンテンツの表示をアニメーション化する上記の方法は、電子デバイスが、頭部の動きによって拡張コンテンツが完全に表示されることの効率的なフィードバックをユーザに提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが電子デバイスに拡張コンテンツをより迅速に表示させること、又は拡張コンテンツの提示から後退させることを可能にすることによって)、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示す第1の拡張コンテンツ720aを表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線(例えば、716l)が第1の拡張コンテンツ(例えば、720a)に向けられていることを検出する(1154)。
いくつかの実施形態では、図7Jのように、ユーザの視線(例えば、716l)が第1の拡張コンテンツ(例えば、720a)に向けられていることを検出した後に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線がもはや第1の拡張コンテンツに向けられていないことを検出する(例えば、ユーザは、ユーザインタフェース内の異なる位置を見たり、ユーザインタフェースから目を離したりする)(1156)。
いくつかの実施形態では、ユーザの視線がもはや第1の拡張コンテンツ(例えば、720a)に向けられていないことを検出したことに応じて、電子デバイス(例えば、101)は、第1の拡張コンテンツ(例えば、720a)の表示を停止する(1158)。
いくつかの実施形態では、電子デバイスは、ユーザが拡張コンテンツを見てから目を離すまで拡張コンテンツを表示する。例えば、ユーザが拡張コンテンツ又は電子デバイスを表示するアプリケーションとの対話を停止する前に拡張コンテンツを見ていない場合、拡張コンテンツは、ユーザがアプリケーション及び/又は電子デバイスとの対話を再開したときに依然として表示される。しかしながら、ユーザが拡張コンテンツを既に見た後に他のコンテンツとの対話を開始した場合、電子デバイスは任意選択的に拡張コンテンツの表示を停止する(例えば、いくつかの実施形態では、拡張された基準を破棄するための他の基準がある場合、それが満たされている限り)。いくつかの実施形態では、ユーザが拡張コンテンツを見ておらず、電子デバイスとの対話を停止し、後で戻ってきた場合でも、拡張コンテンツは依然として任意選択で表示される。
ユーザが拡張コンテンツを見ていた後に目を離したことを検出したことに応じて拡張コンテンツの表示を停止する上記の方法は、ユーザがそれを見たときにのみ、電子デバイスが拡張コンテンツを効率的に破棄することを可能にするが、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザインタフェースの異なる部分と対話する前に拡張コンテンツの表示を停止するのに必要な入力を減らすことによって)、それは更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示す第1の拡張コンテンツ(例えば、720a)を表示している間に、第1の拡張コンテンツ(例えば、720a)に向けられたユーザの視線(例えば、716l)を検出する前に、電子デバイスは、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線が第1の拡張コンテンツ(例えば、720a)以外のユーザインタフェース内の位置に向けられていることを検出する(例えば、ユーザは、拡張コンテンツではない第1のコンテンツを見続け、又は第1のコンテンツ若しくは拡張コンテンツ以外のコンテンツを含むユーザインタフェースの部分を見続ける)(1160)。
いくつかの実施形態では、ユーザの視線が第1の拡張コンテンツ(例えば、720a)に向けられておらず、ユーザの視線が第1の拡張コンテンツ(例えば、720a)以外のユーザインタフェース内の位置に向けられていることを検出したことに応じて、電子デバイス(例えば、101)は、図7Jに示すように、第1の拡張コンテンツ(例えば、720a)を表示し続ける(1162)。
いくつかの実施形態では、電子デバイスは、ユーザが拡張コンテンツを見てから目を離すまで、又は拡張コンテンツを破棄するための他の基準が満たされるまで、拡張コンテンツを表示し続ける。任意選択で、拡張コンテンツを破棄するための他の基準も可能である。いくつかの実施形態では、拡張コンテンツ以外のユーザインタフェースの位置を単に見ることは、それ自体では破棄基準を満たさないが、そのような実施形態では、拡張コンテンツを見ることは、任意選択的に、破棄されるべき拡張コンテンツに対する少なくとも1つの要件である。
拡張コンテンツを見ることなく、ユーザが拡張コンテンツを見ていない間に拡張コンテンツを表示し続ける上記の方法は、拡張コンテンツを誤って破棄することを回避し、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、誤って破棄された場合に拡張コンテンツを再表示するのに必要な入力及び時間を削減することによって)、更に、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示す第1の拡張コンテンツ(例えば、720a)を表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、ユーザの視線の動きが、ユーザが第1のコンテンツを読んでいることを示すことを検出する(例えば、電子デバイスは、視線トラッキングデバイスを用いて、読み取りと一致するユーザの目の動きを検出する)(1164)。
いくつかの実施形態では、ユーザの視線の動きが、ユーザが第1のコンテンツを読んでいることを示すことを検出したことに応じて、電子デバイス(例えば、101)は、第1の拡張コンテンツ(例えば、720a)の表示を停止する(1166)。
いくつかの実施形態では、電子デバイスは、ユーザが拡張コンテンツを見る前に第1のコンテンツの読み取りを検出する。いくつかの実施形態では、ユーザが拡張コンテンツを見た後に読み取り値が検出される。
いくつかの実施形態では、電子デバイスは、ユーザが第1のコンテンツを読んでいることを検出したことに応じて拡張コンテンツの表示を停止し、いくつかの実施形態では、ユーザが拡張コンテンツを見ていない場合であっても、他の実施形態では、電子デバイスは、拡張コンテンツを破棄することができる前に、ユーザが拡張コンテンツを見たことを依然として必要とする。いくつかの実施形態では、ユーザが第1のコンテンツを読むことなく単に第1のコンテンツを見ている場合、拡張コンテンツは電子デバイスによって表示され続ける。したがって、いくつかの実施形態では、拡張コンテンツが破棄されるために、第1のコンテンツの読み取りが必要とされる。
ユーザが第1のコンテンツを読んでいることを検出したことに応じて拡張コンテンツの表示を停止する上記の方法は、ユーザが第1のコンテンツを読んでいる間、電子デバイスが拡張コンテンツを効率的に破棄して視覚的クラッタを低減することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、代わりに第1のコンテンツに焦点を合わせるために拡張コンテンツの表示を停止するのに必要な入力を減らすことによって)、これにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示される第1の拡張コンテンツ(例えば、720a)を表示している間に、電子デバイス(例えば、101)は、第1の拡張コンテンツ以外のユーザインタフェースの領域(例えば、720a)に向けられた入力を検出する(例えば、ユーザは、第1の拡張コンテンツ以外の領域に表示されたコンテンツを読むか、又は方法1000で説明したような逆方向ナビゲーション入力などの異なる入力を実行する)(1168)。
いくつかの実施形態では、入力を検出したことに応じて、電子デバイス(例えば、101)は、第1の拡張コンテンツ(例えば、720a)の表示を停止するアニメーションを開始する(1170)(例えば、拡張コンテンツは、表示領域からフェードアウト及び/又は収縮及び/又は移動し始める)。
いくつかの実施形態では、第1の拡張コンテンツ(例えば、720a)の停止表示をアニメーション化している間であるが、第1の拡張コンテンツ(例えば、720a)の表示を停止する前に(1172)、ユーザの視線(例えば、716l)が図7Jに示される第1の拡張コンテンツ(例えば、720a)に向けられているという判定に従って、電子デバイス(例えば、101)は、第1の拡張コンテンツ(例えば、720a)のアニメーションを停止し、第1の拡張コンテンツ(例えば、720a)の表示を図7Jに示される初期状態に(例えば、拡張コンテンツを見ているユーザを検出したことに応じて、電子デバイスは任意選択的に拡張コンテンツの表示を元に戻す)に戻す(1174)。
いくつかの実施形態では、ユーザの視線が第1の拡張コンテンツ(例えば、720a)に向けられていないという判定に従って、電子デバイス(例えば、101)は、第1の拡張コンテンツ(例えば、720a)の表示の停止のアニメーションを継続する(1176)(例えば、第1の拡張コンテンツが表示されなくなるまで)。
拡張コンテンツを見ているユーザを検出したことに応じて拡張コンテンツの表示を停止するアニメーションを停止する上記の方法は、電子デバイスが、ユーザがそれを見たい場合には拡張コンテンツを迅速かつ効率的に表示し続け、ユーザがそれを見たくない場合には拡張コンテンツを破棄することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、拡張コンテンツを破棄し、拡張コンテンツの偶発的な破棄を防止する効率的な方法を提供することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、図7Jに示す第1の拡張コンテンツ(例えば、720a)を表示している間に、電子デバイス(例えば、101)は、視線トラッキングデバイス(例えば、314)を介して、1つ以上の第2の基準(例えば、瞬きの持続時間は、潜在意識下の瞬きと一致する閾値時間量を超える)を満たすユーザの目の瞬きを判定する(1178)。例えば、ユーザの目は、少なくとも0.5秒間、0.6秒間、0.7秒間、0.8秒間、0.9秒間、又は1秒間閉じたままである。
いくつかの実施形態では、ユーザの目の瞬きが1つ以上の第2の基準を満たすと判定したことに応じて、電子デバイス(例えば、101)は、第1の拡張コンテンツ(例えば、720a)の表示を停止する(1180)。いくつかの実施形態では、瞬きが1つ以上の基準を満たさない場合(例えば、ユーザの目は、所定の閾値未満の期間閉じている)、拡張コンテンツは表示され続ける。
1つ以上の基準を満たす瞬きに応じて拡張コンテンツの表示を停止する上記の方法は、電子デバイスが、ユーザが電子デバイスに拡張コンテンツの表示を中止させるための効率的な方法を提供することを可能にし、これにより、ユーザと電子デバイスとの間の対話が単純化され、電子デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザが拡張コンテンツを破棄するのにかかる時間を短縮することによって)、それにより、ユーザが電子デバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量が更に削減され、電子デバイスのバッテリ寿命が改善される。
いくつかの実施形態では、方法800、900、1000、及び1100の態様/動作は、これらの方法の間で交換、置換、及び/又は追加され得る。簡潔にするために、それらの詳細はここでは繰り返さない。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。

Claims (25)

  1. 方法であって、
    表示生成コンポーネント及び視線トラッキングデバイスと通信する電子デバイスにおいて、
    前記表示生成コンポーネントを介して、コンテンツアイテムのテキストの第1の部分と前記コンテンツアイテムのテキストの第2の部分とを含むユーザインタフェースであって、前記テキストの第1の部分は前記ユーザインタフェース内の第1の位置に表示され、前記テキストの第2の部分は前記ユーザインタフェース内の第2の位置に表示される、ユーザインタフェースを表示することと、
    前記ユーザインタフェースを表示している間に、前記視線トラッキングデバイスを介して、ユーザの視線の動きが、前記ユーザが前記テキストの第1の部分を読んでいることを示していると判定することと、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読んでいることを示している間に、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読み終わったことを示すという判定に従って、
    前記テキストの第2の部分が第1の方向に移動するように前記テキストをスクロールすることと、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読み終わっていないことを示すという判定に従って、
    前記テキストの第1の部分を前記第1の位置に維持することと、
    を含む、方法。
  2. 前記ユーザインタフェースを表示している間に、前記視線トラッキングデバイスを介して、前記ユーザの視線が前記テキストの第1の部分又は前記テキストの第2の部分に向けられているが、前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分又は前記テキストの第2の部分を読んでいないことを示すと判定することと、
    前記ユーザの前記視線が前記テキストの第1の部分又は前記テキストの第2の部分に向けられているが、前記ユーザの前記視線の動きが、前記ユーザが前記テキストの第1の部分又は前記テキストの第2の部分を読んでいないことを示すと判定したことに応じて、前記テキストのスクロールを取り止めることと、
    を更に含む、請求項に記載の方法。
  3. 前記ユーザインタフェースを表示している間に、前記視線トラッキングデバイスを介して、前記ユーザの視線がもはや前記テキストの第1の部分に向けられていないと判定することと、
    前記ユーザの前記視線がもはや前記テキストの第1の部分に向けられていないという判定に応じて、
    前記ユーザが前記テキストの第1の部分を読むことなく、前記テキストの第1の部分をざっと読んだことの、前記テキストの第1の部分上の前記ユーザの視線の検出された動きに基づ判定に従って、前記テキストのスクロールを取り止めることと、
    前記ユーザが前記テキストの第1の部分を読んだことの、前記テキストの第1の部分上の前記ユーザの視線の検出された動きに基づ判定に従って、前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールすることと、を更に含む、請求項1又は2に記載の方法。
  4. 前記視線トラッキングデバイスを介して、前記テキストの第1の部分上の前記ユーザの視線の検出された動きに基づいて、前記ユーザが前記テキストの第1の部分をざっと読んでいると判定することと、
    前記ユーザが前記テキストの第1の部分のざっと読みを終了したという判定に従って、前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールすることと、を更に含む、請求項1又は2に記載の方法。
  5. 前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールすることは、前記ユーザが前記テキストの第1の部分の終わりに到達し、前記テキストの第2の部分の先頭に向かう方向に目を動かしていることを検出したことに応じている、請求項1から4のいずれか一項に記載の方法。
  6. 前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールすることは、前記ユーザが前記テキストの第2の部分の先頭に向かう前記方向に目を動かしている間に発生する、請求項に記載の方法。
  7. 前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールすることにより、前記テキストの第2の部分が、前記ユーザが目を前記テキストの第2の部分の前記先頭に向かう前記方向に動かす間に見る前記ユーザインタフェース内の位置に表示される、請求項に記載の方法。
  8. 前記ユーザインタフェースは、前記ユーザインタフェース内の前記第1の位置にある前記テキストの第1の部分と、前記ユーザインタフェース内の前記第2の位置にある前記テキストの第2の部分と、前記ユーザインタフェース内の第3の位置にある前記コンテンツアイテムのテキストの第3の部分とを含み、前記方法は、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読んでいることを示している間に、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読み終わり、前記テキストの第2の部分を読み始めようとしていることを示すという判定に従って、前記テキストの第2の部分が第1の量だけ前記第1の方向に移動するように前記テキストをスクロールすることと、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読み終わり、前記テキストの第3の部分を読み始めようとしていることを示すという判定に従って、前記テキストの第3の部分が前記第1の量より大きい第2の量だけ前記第1の方向に移動するように前記テキストをスクロールすることと、
    を更に含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールすることにより、前記ユーザインタフェースの第3の領域に画像が表示され、前記方法は、
    前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールした後に、
    前記視線トラッキングデバイスを介して、前記ユーザの視線が前記画像に向けられていると判定することと、
    前記ユーザの前記視線が前記画像に向けられていると判定したことに応じて、前記ユーザインタフェース内の前記第1の位置に前記画像を表示するために、前記テキスト及び前記画像を前記第1の方向にスクロールすることと、
    を更に含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記画像を前記ユーザインタフェース内の前記第1の位置に表示している間に、前記コンテンツアイテムのテキストの第3の部分を前記画像の下に表示することと、
    前記画像を前記ユーザインタフェース内の前記第1の位置に表示し、前記テキストの第3の部分を前記画像の下に表示している間に、1つ以上の基準が満たされたと判定することと、
    前記1つ以上の基準が満たされたとの判定に応じて、前記画像上に重ね合わされるように前記テキストの第3の部分を移動するように前記ユーザインタフェースを更新することと、
    を更に含む、請求項に記載の方法。
  11. 前記画像上に重ね合わされた前記テキストの第3の部分を表示している間に、前記視線トラッキングデバイスを介して、前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第3の部分を読んでいることを示すことを検出することと、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第3の部分を読んでいることを示していると判定したことに応じて、前記テキストの第3の部分がもはや前記画像上に重ならないように、前記画像を前記第1の方向にスクロールすることと、
    を更に含む、請求項10に記載の方法。
  12. 前記コンテンツアイテムを含む前記ユーザインタフェースを表示している間に、前記視線トラッキングデバイスを介して、前記ユーザの頭部の水平方向の動きを検出することと、
    前記ユーザの前記頭部の前記水平方向の動きを検出したことに応じて、前記コンテンツアイテムを前記ユーザの視野の中心の位置に表示するように前記ユーザインタフェースを更新することと
    を更に含む、請求項1から11のいずれか一項に記載の方法。
  13. 前記第1の方向は、前記ユーザインタフェースにおいて垂直な方向である、請求項1から12のいずれか一項に記載の方法。
  14. 前記第1の方向は、前記ユーザインタフェースにおいて水平な方向である、請求項1から12のいずれか一項に記載の方法。
  15. 前記第1の方向は、前記ユーザインタフェース内の垂直成分及び水平成分を有する、請求項1から14のいずれか一項に記載の方法。
  16. 前記テキストの第1の部分上の前記ユーザの視線の検出された動きに基づいて、前記ユーザが前記テキストの第1の部分を読み終わったことを検出することと、
    前記ユーザが前記テキストの第1の部分を読み終わったことを検出したことに応じて、前記ユーザインタフェース内に、前記ユーザが前記テキストの第1の部分を読み終わったと判定する前には表示されていなかった前記コンテンツアイテムのテキストの第3の部分を表示することと、
    を含む、請求項1から15のいずれか一項に記載の方法。
  17. 前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読んでいることを示していると判定したことに応じて、前記テキストの第1の部分に関連付けられた第1のオーディオを生成することと、
    前記テキストの第2の部分が前記第1の方向に移動するように前記テキストをスクロールした後に、前記視線トラッキングデバイスを介して、前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第2の部分を読んでいることを示していると判定することと、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第2の部分を読んでいることを示していると判定したことに応じて、前記テキストの第2の部分に関連付けられた第2のオーディオを生成することと、
    を更に含む、請求項1から16のいずれか一項に記載の方法。
  18. 前記テキストの第1の部分に関連する前記第1のオーディオの進行は、前記ユーザが前記テキストの第1の部分を読んでいる速度に対応し、前記テキストの第2の部分に関連する前記第2のオーディオの進行は、前記ユーザが前記テキストの第2の部分を読んでいる速度に対応する、請求項17に記載の方法。
  19. 前記ユーザの前記視線の前記動きが、前記ユーザが個別のコンテンツアイテムを読んでいることを示している間に、それらの個別のコンテンツアイテムを、前記ユーザがそれらの個別のコンテンツアイテムを読んでいた個別の時間に関連付けることと、
    前記ユーザの前記視線の前記動きが、前記ユーザが前記個別のコンテンツアイテムを読み終えたことを示した後に、
    1つ以上の入力デバイスを介して、前記ユーザが第1の個別の時間に読んでいたコンテンツアイテムに関する情報を提示する要求を受信することと、
    前記ユーザが前記第1の個別の時間に読んでいた前記コンテンツアイテムに関する前記情報を表示する前記要求の受信に応じて、
    前記第1の個別の時間は第1の時間であるという判定に従って、第1の個別のコンテンツアイテムに関する情報を提示することと、
    前記第1の個別の時間は第2の時間であるという判定に従って、第2の個別のコンテンツアイテムに関する情報を提示することと、
    を更に含む、請求項1から18のいずれか一項に記載の方法。
  20. 前記コンテンツアイテムを表示している間に、1つ以上の入力デバイスを介して、前記コンテンツアイテムの表示を停止する要求を受信し、前記コンテンツアイテムの表示を停止する前記要求の受信に応じて、前記コンテンツアイテムの表示を停止することと、
    前記コンテンツアイテムの表示を停止した後に、前記1つ以上の入力デバイスを介して、前記コンテンツアイテムを表示する要求を受信することと、
    前記コンテンツアイテムを表示する前記要求の前記受信に応じて、
    記コンテンツアイテムを表示することと、
    前記コンテンツアイテムの表示が停止される前に、前記ユーザが前記コンテンツアイテムの前記テキストの第1の部分を最後に読んだという判定に従って、前記コンテンツアイテムの前記テキストの第1の部分のインジケーションを提供することと、
    前記コンテンツアイテムの表示が停止される前に、前記ユーザが前記コンテンツアイテムの前記テキストの第2の部分を最後に読んだという判定に従って、前記コンテンツアイテムの前記テキストの第2の部分のインジケーションを提供することと、
    を更に含む、請求項1から19のいずれか一項に記載の方法。
  21. 前記ユーザインタフェースを表示している間に、前記視線トラッキングデバイスを介して、所定のタイミング基準で前記ユーザの目が閉じてから開かれたという判定を含めて、前記ユーザが瞬きをしたと判定することと、
    前記ユーザが瞬きしたと判定したことに応じて、前記第1の方向とは異なる第2の方向に前記テキストをスクロールして、前記コンテンツアイテムの前の部分を前記ユーザインタフェース内の前記第1の位置に表示させることと、
    を更に含む、請求項1から20のいずれか一項に記載の方法。
  22. 前記ユーザインタフェースを表示している間に、前記視線トラッキングデバイスを介して、前記ユーザが前記コンテンツアイテムを流し読みしていると判定することと、
    前記ユーザが前記コンテンツアイテムを流し読みしていると判定したことに応じて、第1の値を有する視覚特性で前記コンテンツアイテムの1つ以上の第1の単語を提示し、前記第1の値とは異なる第2の値を有する前記視覚特性で、前記コンテンツアイテムの前記第1の単語とは異なる前記コンテンツアイテムの1つ以上の第2の単語を提示することと、
    を更に含む、請求項1から21のいずれか一項に記載の方法。
  23. 前記ユーザの前記視線の前記動きが、前記ユーザが前記テキストの第1の部分を読み終わったことを示すという前記判定に応じて、前記テキストの前記第2の部分が前記第1の方向に移動するように前記テキストをスクロールした後、前記視線トラッキングデバイス以外の前記電子デバイスと通信する1つ以上の入力デバイスを介して、前記第1の方向とは反対の第2の方向に前記テキストをスクロールする要求に対応する入力を受信することと、
    記入力の受信に応じて、前記テキストを前記第2の方向にスクロールすることと、
    を更に含む、請求項1から22のいずれか一項に記載の方法。
  24. 電子デバイスであって、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から23のいずれか一項に記載の方法を実行する命令を含む、
    電子デバイス。
  25. 子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、請求項1から23のいずれか一項に記載の方法を実行させる命令を含むプログラム
JP2022557936A 2020-03-27 2021-03-15 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース Active JP7389270B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023195265A JP2024026103A (ja) 2020-03-27 2023-11-16 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063001210P 2020-03-27 2020-03-27
US63/001,210 2020-03-27
US202063131754P 2020-12-29 2020-12-29
US63/131,754 2020-12-29
PCT/US2021/022413 WO2021194790A1 (en) 2020-03-27 2021-03-15 Devices, methods, and graphical user interfaces for gaze-based navigation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023195265A Division JP2024026103A (ja) 2020-03-27 2023-11-16 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース

Publications (2)

Publication Number Publication Date
JP2023520345A JP2023520345A (ja) 2023-05-17
JP7389270B2 true JP7389270B2 (ja) 2023-11-29

Family

ID=75439494

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022557936A Active JP7389270B2 (ja) 2020-03-27 2021-03-15 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2023195265A Pending JP2024026103A (ja) 2020-03-27 2023-11-16 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023195265A Pending JP2024026103A (ja) 2020-03-27 2023-11-16 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース

Country Status (7)

Country Link
US (1) US20210303107A1 (ja)
EP (1) EP4127869A1 (ja)
JP (2) JP7389270B2 (ja)
KR (1) KR20220137770A (ja)
CN (2) CN115657848A (ja)
AU (1) AU2021242208A1 (ja)
WO (1) WO2021194790A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11705232B2 (en) * 2021-02-11 2023-07-18 Nuance Communications, Inc. Communication system and method
US9766702B2 (en) 2014-06-19 2017-09-19 Apple Inc. User detection by a computing device
US11333902B2 (en) * 2017-12-12 2022-05-17 RaayonNova LLC Smart contact lens with embedded display and image focusing system
JP2023543799A (ja) 2020-09-25 2023-10-18 アップル インコーポレイテッド ユーザインタフェースをナビゲートする方法
US11874959B2 (en) * 2021-09-15 2024-01-16 Sony Interactive Entertainment Inc. Dynamic notification surfacing in virtual or augmented reality scenes

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107048A (ja) 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd 視線対応制御装置および視線対応制御方法
JP2011203880A (ja) 2010-03-25 2011-10-13 Nomura Research Institute Ltd 既読判定装置および既読判定方法
US20120066638A1 (en) 2010-09-09 2012-03-15 Microsoft Corporation Multi-dimensional auto-scrolling
JP2014021565A (ja) 2012-07-12 2014-02-03 Canon Inc 電子機器及びその制御方法
WO2014203301A1 (ja) 2013-06-17 2014-12-24 日立マクセル株式会社 情報表示端末
JP2015056173A (ja) 2013-09-13 2015-03-23 富士通株式会社 情報処理装置、方法及びプログラム
JP2018041477A (ja) 2012-06-25 2018-03-15 アマゾン・テクノロジーズ、インコーポレイテッド 注視決定とデバイス入力との使用
JP2019040333A (ja) 2017-08-24 2019-03-14 大日本印刷株式会社 情報処理装置、情報処理方法、コンピュータプログラム及び表示制御用の時系列データ
JP2019536131A (ja) 2016-10-04 2019-12-12 フェイスブック,インク. 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US6078310A (en) * 1996-06-26 2000-06-20 Sun Microsystems, Inc. Eyetracked alert messages
US8341541B2 (en) * 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US9316827B2 (en) * 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US20140049462A1 (en) * 2012-08-20 2014-02-20 Google Inc. User interface element focus based on user's gaze
US9864498B2 (en) * 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US9442631B1 (en) * 2014-01-27 2016-09-13 Google Inc. Methods and systems for hands-free browsing in a wearable computing device
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
US9619519B1 (en) * 2014-06-23 2017-04-11 Amazon Technologies, Inc. Determining user interest from non-explicit cues
US9829708B1 (en) * 2014-08-19 2017-11-28 Boston Incubator Center, LLC Method and apparatus of wearable eye pointing system
EP3316117A1 (en) * 2016-10-31 2018-05-02 Nokia Technologies OY Controlling content displayed in a display
CN112578911A (zh) * 2016-12-06 2021-03-30 美国景书公司 跟踪头部和眼睛的运动的装置和方法
US10565448B2 (en) * 2017-08-16 2020-02-18 International Business Machines Corporation Read confirmation of electronic messages

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107048A (ja) 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd 視線対応制御装置および視線対応制御方法
JP2011203880A (ja) 2010-03-25 2011-10-13 Nomura Research Institute Ltd 既読判定装置および既読判定方法
US20120066638A1 (en) 2010-09-09 2012-03-15 Microsoft Corporation Multi-dimensional auto-scrolling
JP2018041477A (ja) 2012-06-25 2018-03-15 アマゾン・テクノロジーズ、インコーポレイテッド 注視決定とデバイス入力との使用
JP2014021565A (ja) 2012-07-12 2014-02-03 Canon Inc 電子機器及びその制御方法
WO2014203301A1 (ja) 2013-06-17 2014-12-24 日立マクセル株式会社 情報表示端末
JP2015056173A (ja) 2013-09-13 2015-03-23 富士通株式会社 情報処理装置、方法及びプログラム
JP2019536131A (ja) 2016-10-04 2019-12-12 フェイスブック,インク. 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース
JP2019040333A (ja) 2017-08-24 2019-03-14 大日本印刷株式会社 情報処理装置、情報処理方法、コンピュータプログラム及び表示制御用の時系列データ

Also Published As

Publication number Publication date
US20210303107A1 (en) 2021-09-30
EP4127869A1 (en) 2023-02-08
JP2024026103A (ja) 2024-02-28
CN115315681A (zh) 2022-11-08
JP2023520345A (ja) 2023-05-17
KR20220137770A (ko) 2022-10-12
WO2021194790A1 (en) 2021-09-30
CN115657848A (zh) 2023-01-31
AU2021242208A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
US11768579B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11875013B2 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
US20220091722A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP7389270B2 (ja) 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2022547930A (ja) 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
US11520456B2 (en) Methods for adjusting and/or controlling immersion associated with user interfaces
US20220092862A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US11567625B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US20230333646A1 (en) Methods for navigating user interfaces
US20230092874A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20230152935A1 (en) Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments
US20240103803A1 (en) Methods for interacting with user interfaces based on attention
US20240094862A1 (en) Devices, Methods, and Graphical User Interfaces for Displaying Shadow and Light Effects in Three-Dimensional Environments
WO2023049111A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN117957581A (en) Apparatus, method and graphical user interface for interacting with a three-dimensional environment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7389270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150