JP6058626B2 - 注視に基づくコンテンツディスプレイ - Google Patents

注視に基づくコンテンツディスプレイ Download PDF

Info

Publication number
JP6058626B2
JP6058626B2 JP2014503946A JP2014503946A JP6058626B2 JP 6058626 B2 JP6058626 B2 JP 6058626B2 JP 2014503946 A JP2014503946 A JP 2014503946A JP 2014503946 A JP2014503946 A JP 2014503946A JP 6058626 B2 JP6058626 B2 JP 6058626B2
Authority
JP
Japan
Prior art keywords
user
electronic device
content
display
gaze direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014503946A
Other languages
English (en)
Other versions
JP2014514658A (ja
Inventor
バルドウィン、レオ・ビー.
セルカー、エドウィン・ジョセフ
Original Assignee
アマゾン・テクノロジーズ、インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アマゾン・テクノロジーズ、インコーポレイテッド filed Critical アマゾン・テクノロジーズ、インコーポレイテッド
Publication of JP2014514658A publication Critical patent/JP2014514658A/ja
Application granted granted Critical
Publication of JP6058626B2 publication Critical patent/JP6058626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/34Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators for rolling or scrolling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/14Electronic books and readers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Description

人々は、ニュース記事、ウェブサイト、およびデジタル書籍等の、種々のタイプのコンテンツにアクセスするために、以前にも増して電子デバイスに依存している。多くの場合、ユーザは、マウスをスクロールする、ナビゲーションキーを押す、または別様にはタスクを行うことによって、コンテンツをナビゲートしなければならず、これは、デバイスと相互作用するために、繰り返し長時間にわたって、ユーザに、少なくとも片手を、または身体の他の一部を特定の場所に位置付けることを必要とする。携帯デバイスは、いくつかの柔軟性を提供するが、ユーザは、それでも一般的に、ユーザがデバイスのナビゲーション要素にアクセスすることができるような方法で、デバイスを保持または支持しなければならない。いくつかの潜在的な物理的制限のいずれかのため、さらには単にユーザの現在位置だけのため、ユーザがそのような要素を保持することまたはそれにアクセスすることができない場合、ユーザは、コンテンツに対するアクセスが制限される可能性があり、またはユーザがコンテンツをナビゲートしなければならないという点で、少なくともイライラするか、または不快に感じる可能性がある。
以下、本開示に従う種々の実施態様を、図面を参照して説明する。
種々の実施形態に従って、ユーザが情報を視聴するために電子デバイスを一見することができる環境を例示する図である。 電子デバイスを使用してコンテンツをナビゲートするための、例示的な方法を例示する図である。 種々の実施形態に従って電子デバイスとともに使用することができる、例示的な1組のナビゲーションゾーンを例示する図である。 種々の実施形態に従って利用することができる、滑らかな注視に基づくスクロール制御のための例示的な手法を例示する図である。 種々の実施形態に従って利用することができる、滑らかな注視に基づくスクロール制御のための例示的な手法を例示する図である。 種々の実施形態に従って電子デバイスとともに利用することができる、例示的な注視に基づくインターフェースを例示する図である。 種々の実施形態に従って電子デバイスとともに利用することができる、例示的な注視に基づくインターフェースを例示する図である。 種々の実施形態に従って電子デバイスとともに利用することができる、例示的な注視に基づくインターフェースを例示する図である。 種々の実施形態に従って使用することができる、注視情報を取り込むように操作可能な要素を含む、例示的なコンピューティングデバイスを例示する図である。 図7で例示されるようなコンピューティングデバイスの例示的な構成要素を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力を決定するための例示的な過程を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力に応じて情報の表示を管理するための例示的な過程を例示する図である。 種々の実施形態に従って使用することができる、視線方向を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、視線方向を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、視線方向を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力を決定するための例示的な手法を例示する図である。 種々の実施形態に従って使用することができる、ユーザ入力を決定するための例示的な手法を例示する図である。 種々の実施形態を実現することができる環境を例示する図である。
本開示の種々の実施形態に従うシステムおよび方法は、ユーザが、電子環境の中でシステム、デバイス、インターフェース、または他のそのような対象物と相互作用すること、またはこれらを制御することを可能にするために、従来の手法で体験する上述した欠点および他の欠点の1つ以上を克服し得る。種々の実施形態は、ユーザが、自然な行動および本能を使用して情報の表示を制御することを可能にし、ユーザの一部に対する気を散らすものまたはさらなる手間を最小にする。少なくともいくつかの実施形態において、電子デバイス上のコンテンツの表示は、ユーザの注視方向(または視点)に少なくとも部分的に基づいて、スクロール、更新、リフレッシュ、または別様には調整することができる。ユーザの注視方向は、経時的に監視することができ、注視方向の変化を、ユーザインターフェースの特定の様態を制御するために使用することができる。インターフェースが、電子ブックまたはウェブページの一部等であり得る、テキストを表示している場合、例えば、デバイスは、ユーザの注視で決定される変化によって決定され得るように、ユーザが読んでいる速度および/または場所に少なくとも部分的に基づいて、テキストをスクロールする、または別様には調整させることができる。
いくつかの実施形態では、異なるゾーンにデバイスディスプレイの異なる領域を割り当てることができる。各ゾーンは、異なる速度でスクロールする、異なるページに切り替える、現在の表示で停止する等の、異なる動作に対応することができる。他の実施形態では、個別のゾーンはないが、代わりに、比較的滑らかで自然な方法でコンテンツに対する調整を行うことができるように、少なくとも半連続関数が、ディスプレイの異なる領域に適用される。そのような手法は、「終わりのない」連続面という感覚で、ユーザにテキストまたは他のコンテンツを提示することを可能にする。自然なユーザの行動に基づいてその表面を制御するために、注視情報を利用するフィードバックループを使用することができる。注視の決定は、一般に、極端に正確である必要はないので(例えば、一実施形態では、約5%以内の正確さ)、情報を取り込んで必要な決定を行うために、比較的低い解像度のカメラまたは他のそのようなセンサもしくは要素を使用することができる。
また、アイコン、ボタン、またはサムネイル画像等の、割り当てられた特定のグラフィカル要素を有することができる、種々の場所もあり得る。少なくともいくつかの実施形態では、異なるページに移動する、またはメニューを開くなどのために、これらの要素のうちの少なくともいくつかに特定のコマンドを割り当てることができる。いくつかの実施形態では、ユーザが画像を完全にロードする必要なくテキストを読むことができるように、少なくともあるサイズの画像をテキスト部分から取り出して、別の領域まで移動させることができる。ユーザが画像を見たいと思った場合、ユーザは、その画像に対応するサムネイルまたは他のアイコンに注目し、その画像を、対応するテキストの上に、もしくはそれに加えてロードおよび/または表示することができる。ユーザが画像の視聴を終えると、ユーザは、再度テキストを見る(または別のそのような注視調整を行う)ことができ、これは、写真をディスプレイから削除することができる。種々の他の動作を取ることができ、同じく、本明細書の他の場所で論じられる。
少なくともいくつかの実施形態において、デバイスは、ユーザの視聴が特定の場所に留まる時間量に少なくとも部分的に基づいて、「注視」と「一見」とを区別することができる。例えば、ユーザが、本明細書で「一見」と称される眼球のジェスチャーでデバイスのある領域に関わっていると判定されたときに、デバイスは、表示コンテンツに対する調整を行い得ず、ここで、ユーザの注視方向は、比較的短い期間(例えば、最小閾値時間量未満)にわたって実質的にある場所に向かっていると判定される。ユーザがデバイスの表示要素のある領域に注目し、次いで、半秒未満で目をそらした場合、例えば、ユーザは、その領域を一見したと判定され得、動作が取られ得ない。ユーザが、より長い期間にわたってその場所に向かって注視方向を向け続けた場合、本明細書ではその場所を「注視する」と称し、適切な動作が取られ得る。いくつかの実施形態において、1行のテキストを読んだ結果等であり得る、比較的小さい調整は、それでも、入力を提供する目的の「注視」であるとみなされ得る一方で、関心があるかどうかを確かめるために画面の縁部のサムネイルに迅速に注目する等の一見は、いかなる表示の更新ももたらし得ない。
いくつかの実施形態において、デバイスは、近くのユーザを認識し、そのユーザをデバイスの近くの任意の他の人々と区別しようとするために、デバイスの周囲の画像情報を取り込み、解析することができる。そのような手法は、1人のユーザおよび/または適切なユーザに対して入力が処理されていること、および近くの他の人が、偶然または意図的にデバイスと相互作用することを防止することを、デバイスが確実にすることを可能にする。いくつかの実施形態では、デバイスの許可されたまたは主たるユーザだけから入力を受け取ることを確実にするために、顔認識を使用することができる。他の実施形態において、デバイスがその人を必ずしも認識していないという場合であっても、活動中である間だけその人から入力を受け取るように、デバイスは、「活動中の」ユーザを追跡し得る。デバイスは、ユーザの読書パターンを監視することができ、例えばこれは、現在のユーザに対して適切であるゾーンまたは入力関数を設定もしくは選択するのを補助することができる。
種々の他の応用、過程、および用途は、種々の実施形態に関して下で提示される。
図1は、ユーザ102が電子デバイス102上に表示されているコンテンツを視聴している、例示的な状況100を例示する。デバイス上のコンテンツを視聴する間、視角または注視方向は、所与の範囲106内にあり、その範囲は、ユーザまたはデバイスの動き等の因子に依存して相対的である。ユーザが、表示されているページの最下部近くのコンテンツを視聴しているときに、視角は、その範囲の最下部近くであり得る。同様に、ユーザがそのページの最上部近くのコンテンツを視聴している間、視角は、その範囲の最上部近くであり得る。
図2は、デバイス上に表示されるコンテンツをナビゲートするための、いくつかの異なる従来の方法を含む、例示的なデバイス200を例示する。デバイス200上のコンテンツを読む間、ユーザの視点は、ユーザが入力ボタンを捜すなどの別の作業を行っているときを除いて、一般的に、表示画面202に対応する領域内にある。多くのデバイスには、物理的なボタン208またはその他のそのような押圧可能な要素が、デバイスの外面にある。ユーザが異なるページに移動したい、または別のそのような動作を行いたい場合、ユーザは、しばしば、適切なボタンの場所を特定して、それを押さなければならない。いくつかのデバイスにおいて、デバイスがタッチ画面を有する等の場合、ユーザは、表示画面202上に表示される、仮想ボタン206または他の選択可能な要素を選択することができる。多くの場合、ユーザが特定の速度で上にスクロールする、または下にスクロールすることを可能にする、少なくとも1つの選択可能な要素がある。ユーザがより速くまたはより遅くスクロールしたい場合、ユーザは、表示画面の側部(または他の)領域上に表示される仮想スクロールバー204等の、別個の要素を利用しなければならない場合がある。コンピュータマウス、タッチパッド、ジョイスティック等の、種々の他の入力機構も知られており、使用される。
しかしながら、上で論じたように、これらの機構は、一般に、当該デバイス上に表示されるコンテンツを通してナビゲートするために、これらの要素の少なくともいくつかと頻繁に接触するユーザに依存する。ユーザが長期間にわたって本を読んでいる場合、例えば、ユーザは、一般的に、ユーザが各ページの終わりに適切なボタンを容易に押すことができるような方法でデバイスを保持しなければならない。ユーザがデスクトップコンピュータ等の固定デバイス上でコンテンツを読んでいる場合、ユーザは、一般的に、コンピュータマウスまたは他のそのようなナビゲーションデバイスへの頻繁なアクセスを有するように座っていなければならない。これは、ユーザが必要なナビゲーション要素に容易にアクセスできない場合に、少なくとも長期間を通じて不快に感じる可能性があるだけでなく、ユーザが、有用な方法でコンテンツにアクセスするのを潜在的に妨げる可能性もある。
種々の実施形態に従うシステムおよび方法は、デバイスが、以前にも増して、カメラまたは赤外線センサ等の撮像要素を備えるようになり、したがって、デバイスのユーザの画像情報を取り込むことができるという事実を利用することができる。この画像情報は、ユーザの相対的な視点または注視方向を決定するために、解析することができる。そのような決定に少なくとも部分的に基づいて、デバイスは、ユーザが提供することが自然かつ比較的容易であるような方法で、相対的な注視方向の変化に基づくユーザからの入力を受け入れることができる。多くの場合、ユーザは、デバイスがユーザから入力を取り込んでいることを実感さえしない場合がある。
図3は、デバイスの少なくとも1つの撮像要素306が、デバイスの表示要素302上に表示される情報を視聴するユーザに関する情報を取り込むことができる、例示的なデバイス300を例示する。本明細書の他の場所でさらに詳細に論じられるように、撮像要素306は、ディスプレイに対するユーザの現在の視点を決定するために、表示要素302を視聴するユーザの1つ以上の画像を取り込むことができる。この実施例において、ナビゲーションアルゴリズムは、表示画面を5つの異なるゾーン304に分割して使用されるが、種々の実施形態に従って、任意の適切な数のゾーンを任意の適切な配列で使用することができることを理解されたい。この実施例において、アルゴリズムは、表示要素上に表示される情報をスクロールする速度および/または量を制御する。ユーザは、主としてゾーン1の中に表示されるコンテンツに注目することが意図され、このゾーンは、本明細書で、目標ゾーンまたは目標視点の範囲と称され得る。ユーザがゾーン1のコンテンツに注目しているときに、コンテンツは、規定の速度でスクロールする(数ある当該因子の中でも、表示要素上に収まり得るよりも多くのコンテンツが下側にあると仮定する)。この規定の速度は、ユーザ間で変動する可能性があるが、一般に、ユーザのおよその読書速度に対応する。例えば、現在のフォントサイズおよび行間隔で、ユーザが1秒あたり約1行で読む場合、コンテンツは、ユーザがゾーン1の中に視点を有するときに、1秒あたり約1行でスクロールする。この文脈における「行」は、任意の行間隔またはその他のそのような要素を含む可能性があることを理解されたい。したがって、ユーザの視点がゾーン1の中にあり、かつスクロールするより多くのコンテンツがある限り、ディスプレイは、現在の条件下でユーザの読書速度に実質的に一致する実質的に一定の速度で、コンテンツを連続的にスクロールすることができる。
図示されるように、ゾーン1の上側および/または下側に位置するいくつかの他のゾーンもある。この実施例において、ゾーン2は、ゾーン1の真下にある。ユーザの注視方向がゾーン2まで下がると、デバイスは、現在のスクロール速度が遅過ぎると判定することができ、コンテンツを読んでいる、または視聴している間のユーザの視点がゆっくりとゾーン1まで戻るように、スクロール速度を増加させることができる。調整は、ユーザが、視点が移動していることに容易に気付かないように、または少なくとも調整によって気が散らないように、十分に遅くすることができる。ユーザの注視方向が、スクリーンの最下部のより近くに移動し、よって、ゾーン3にあると判定される場合、ユーザの視点をより迅速にゾーン1に戻らせるために、スクロール速度を再度増加させることができる。
同様に、コンテンツのスクロールが早過ぎる場合、ユーザの視点は、ゾーン1の上側に移動し得る。例えば、ユーザの視点がゾーン4まで移動する場合、デバイスは、スクロールを停止し得、またはスクロールを減速し得、さらには特定の速度で逆方向へのスクロールを開始することができる。いくつかの実施形態では、減速、停止、後退等を行うための異なるゾーンがあり得る。そのような手法は、ユーザの注視方向をゾーン1まで戻すことを可能にする。少なくともいくつかの実施形態では、この動作はまた、現在の条件下で、僅かにより遅いスクロール速度がゾーン1および/または現在のユーザと関連付けられる結果にもなり得る。ユーザが遅れをとっている場合、視点は、ゾーン5へ移動し得、これは、コンテンツがより速い速度で逆方向にスクロール(例えば、「上」にスクロール)する結果になり得る。
論じられるように、デバイスに対するユーザの視点を決定し、それに応じてスクロールを調整する能力は、ユーザが気付くことさえない場合がある自然な方法で、ユーザが入力を提供することを可能にする。さらに、ユーザは、デバイスと物理的に相互作用するか、または入力を提供する必要はない。さらにまた、そのような手法は、デバイスが、現在表示されているコンテンツに対する現時点でのユーザの現在の読書(または視聴)速度を自動的に調整することができるので、自動的に、かついかなるユーザの知識も伴わず、ユーザの疲労レベル、内容の複雑さ、フォントサイズ、行間隔、および他のそのような態様等の、特定の条件に適合させることができる。
ユーザの現在の読書速度に基づくスクロールに加えて、例えば、そのような手法はまた、ユーザが、ユーザにとって自然な方法で、かつさらなるタイプの入力を必要とすることなく、コンテンツの場所を特定することを可能にする。例えば、ユーザは、ユーザが以前に視聴したコンテンツに戻りたいかもしれない。そのようなコンテンツの場所を特定するための自然な手法は、そのコンテンツを見つけるために、捜すこともしくは視覚的に調べること、または戻ることである。図3の実施例において、ゾーン5(または表示画面の最上縁部のさらに近く)に注目するユーザは、以前の視聴可能なコンテンツまで迅速に上にスクロールすることができる。同様に、ユーザは、ゾーン3の中の表示要素の最下部に向かって見下ろすことによって、前方のコンテンツに向かってスキップすることができ、これは、コンテンツの後ろの項までスキップしたい人に対する自然な反応である。いくつかの実施形態では、ユーザがそのようなゾーンのうちの1つを注視していることが検出されたときに、(例えば、パラグラフ、ページ、主題、または章単位で)より迅速に進める特定のゾーンがあり得る。
そのような手法はまた、デバイスが、状態が変化するにつれて、自動的に速度を調整することも可能にする。例えば、ユーザは、教科書の冒頭部分はある速度で読み得るが、実際の問題または説明の項はより遅い速度で読み得る。あるユーザは、異なる読書速度または視聴速度を有する、別のユーザにデバイスを渡し得る。異なるコンテンツには、異なるフォント、フォントサイズ、または行間隔があり得る。数多くのそのような因子のいずれかはまた、ユーザの読書または視聴の実効速度も変化させ得、これは、自動的に検出し、ユーザの注視方向に対する現在のゾーンを決定することによって補償することができる。
しかしながら、いくつかの実施形態では、適切な視聴速度により迅速に到達させるために、少なくともいくつかの学習したおよび/または記憶した情報を使用することができる。例えば、デバイスの各ユーザについて、少なくとも1つの読書シグネチャを取得し、記憶することができる。ユーザがログインすることによって、またはユーザが顔認識または別のそのような手法を介して認識されること等によって、ユーザがデバイスに認識されると、デバイスは、その特定のユーザに対する各ゾーンの値をロードすることができる。そのような手法は、5歳児および大学教授が同じスクロール速度で潜在的に開始する、初期ランプアップ期間を防止する。速度情報はまた、種々の他の因子に対しても記憶することができる。例えば、読み「易い」コンテンツは、それと関連付けられる特定のスクロール速度またはスクロール因子を有し得る一方で、読み「難い」コンテンツは、別のスクロール速度または因子を有し得る。少なくともいくつかの実施形態において、デフォルトのスクロール速度は、そのユーザに対するスクロール速度と、コンテンツの難しさに対するスクロール因子との積であり得る。例えば、1分あたり1行のスクロール速度であるユーザは、コミックに対して1分あたり2行を有し得、また、教科書に対しては1分あたり半行の実効スクロール速度を有し得、これは、コミックに対する2.0、また、教科書に対する0.5のスクロール因子に対応し得る。
時間帯および場所等の種々の他の因子も、デフォルトのスクロール速度とともに考慮することができる。ユーザは、昼間はある速度で読書し得、また、夜間には別の速度で読書し得る。同様に、ユーザは、作業の間はある速度で読書し得、家にいる間は別の速度で読書し得、また、浜辺にいる間は別の速度で読書し得る。デバイスが変動に対して自動的に調整することができる一方で、少なくともいくつかの実施形態では、全体的なユーザの体験を向上させるために、初期のスクロール速度にできる限り近付けようとすることが望ましい可能性がある。
ユーザ体験をさらに向上させるために、種々の実施形態に従うインターフェースは、ゾーンに基づく手法よりも細かいおよび/または連続的である手法を利用することができる。図3の実施例において、スクロール速度は、ユーザの眼球がゾーン2からゾーン3まで移動するときに著しく増加し得る。ユーザは、特定のコンテンツを偶然に飛び越すもしくはそれに到達しない可能性があり、または単に急な変化を認識し得ないので、少なくともいくつかの状況において、そのような手法は、あまり望ましくない。故に、少なくともいくつかの実施形態では、ユーザが速度の違いに気付くことさえない場合があるように、スクロール速度の変動を滑らかにする(連続的な、段階的な、または他の)関数を使用することができる。
例えば、図4(a)で例示されるデバイス400を考慮する。説明のために、A、B、およびCで表されるディスプレイ402上には、3つの地点がある。図3の実施例において、これらは、それぞれ、ゾーン5、1、および3に対応し得る。しかしながら、この実施例において、デバイスは、スクロール速度を決定するために、連続関数を利用する。図4(b)は、種々の実施形態に従ってスクロール速度を決定するために使用することができる、2つの例示的な関数を例示する。この実施例において、スクロール速度は、地点Cの近くにあるときの1秒あたり約20行での前進から、地点Aの近くにあるときの1秒あたり約−20行での後退まで変動する。一実施形態では、略線形関数422が利用され、よって、スクロール速度は、距離とともにほぼ直線的に変動する。したがって、ユーザの視聴方向が地点Bから地点Cに向かって移動するにつれて、スクロール速度は、実質的に一定の速度で増加する(移動にはいかなる相当な変動もないと仮定する)。画面の中間地点(地点Bの周囲)は、実際に、ユーザの目標スクロール速度に対応し得、コンテンツがスクロールを停止する地点は、実際に、地点Bの上側であり得、よって、地点Aでのスクロール速度は、地点Cの逆の速度になり得ない。
しかしながら、少なくともいくつかの場合において、視点が意図する場所の近くにあるときには、スクロール速度を調整することがより少ないことが望ましくなり得、ディスプレイの縁部の近くでは、スクロール速度を調整することがより多いことが望ましくなり得る。故に、地点Bの周囲ではあまり変化せず、地点Aおよび地点Cの周囲ではより速く変化する、非線形関数424を使用することができる。したがって、デバイスは、表示画面に対するユーザの現在の視点を決定することができ、また、およその場所に基づいて、関数に応じたスクロール速度を決定することができる。そのような手法は、ユーザが気付くことさえない場合がある緩やかな変化を可能にすることができる。
使用する関数はまた、コンテンツのタイプに基づいても変動し得る。例えば、デジタル小説は、そのコンテンツを視聴するために実質的に一定のユーザの視聴様式が使用される(すなわち、ユーザが、コンテンツを1行ずつ読む可能性がある)、関数426の関数に類似する関数を有し得る。コンテンツが異なって構成され得る、雑誌またはウェブサイト等のコンテンツ、およびユーザが特定の領域だけに注目し得る場合、適切な関数は、全く異なり得る。
さらに、関数は、時間とともに意図的に変動し得る。一実施形態において、長時間にわたってコンテンツを読むユーザは、長期間にわたって全く同じ場所を一見する場合、眼球が疲労し得る。特定の実施形態に従うデバイスは、ユーザの注視場所が時間とともに緩やかに変動するように、関数を調整することができ、ユーザがその動きに潜在的に気付くことさえなく、ユーザの眼球が運動することを可能にする。図4(b)の実施例では、正弦波、ランダム、または他のそのような手法を使用して、地点Bの「スイートスポット」がページを緩やかに上および下に移動するように、関数を調整することができる。同様に、図3の実施例において、ユーザの眼球の何らかの運動を提供するために、ゾーン1の位置を、ディスプレイに対して上および下に(または別の方法で)移動させることができる。いくつかの実施形態において、この動きは、デフォルトで、またはコンテンツを読むまたは視聴する最小の時間量の後に起こり得る。他の実施形態において、デバイスは、疲労を表すユーザの表情、動き、姿勢、眼瞼形状、または任意の他の態様によって、疲労を検出しようとし得る。少なくともいくつかの実施形態において、デバイスは、注視位置、ユーザ識別情報等を決定するためのものと同じ画像取り込み過程を、疲労を検出するために利用することができる。
類似の手法を、他のタイプのコンテンツナビゲーションにも使用できることも述べておきたい。例えば、特定のインターフェースは、コンテンツを右から左に、または左から右にスクロールし得る。スクロール速度を決定するために、垂直ゾーン等を使用して決定され得るものと類似のアルゴリズムを使用することができる。フォントサイズの制約のため、任意の所与の時点で少ない数の言葉だけしか画面上表示されない低視力ユーザの場合等の、いくつかの場合において、スクロール速度は、語数または他のそのような態様に基づいて決定することができる。
論じられるように、いくつかの状況において、スクロールは、表示コンテンツの特定の領域を通してナビゲートするのに十分になり得ない。例えば、ある本の次の章まで前方にスキップしたいユーザは、上で論じたアルゴリズムを使用して現在の章をスクロールしない方がよい場合がある。物理的ボタンを押す等の従来のオプションを使用することができる一方で、種々の実施形態に従う手法は、ユーザが、デバイスまたは表示画面の特定の領域に注目することによってコンテンツをナビゲートすることを可能にすることができる。例えば、図5は、例示的なデバイス500を例示し、スクリーン502上に表示されるインターフェースは、アイコンまたは他の画像等の、いくつかのグラフィカル要素504、506、508を含む。少なくともいくつかの実施形態において、これらのそれぞれは、関連する機能を有し、タッチ画面の場合は、ユーザのタッチによって選択可能でさえあり得る。デバイス500が、本明細書で論じられる注視方向を決定するために少なくとも1つの画像取り込み要素510を使用することができる場合、デバイスは、ユーザがそのようなグラフィカル要素504、506、508のうちの1つを注視していると判定されるという事実に少なくとも部分的に基づいて、異なる章に移動する、メニューに進む、または別のそのような作業を行うために、入力を受け入れることができる。例えば、ユーザは、次の章にスキップするために要素504を注視するか、最上部または現在の章もしくは項の先頭まで進むために要素508を注視することができる。デバイスが、そのような機能を行うための物理的ボタンを有する実施形態において、デバイスは、ユーザが、表示画面の一部分の代わりに、物理的ボタンを注視しているときを決定し、適切な入力を受け入れるように操作可能であり得る。
いくつかの実施形態において、要素は、向上した読みやすさ、ロード速度、または他のそのような理由のために、コンテンツの他の部分から分離することができる。例えば、ウェブサイトは、ユーザの関心の対象になり得ないいくつかの写真を含み得るが、ページのロードを遅延させ、および/またはユーザの読書体験を低下させ得る。故に、種々の実施形態に従う手法は、テキストまたは他のそのような部分から、画像、ビデオ、または他のそのような要素を分離することができる。図6(a)の実施例では、表示されるテキストから画像が取り除かれており、その画像の場所には、1組のサムネイル画像604、606、608が、ディスプレイ602の側部に沿って位置付けられている。画像を表すためにサムネイル以外のアイコンまたは要素を使用することができること、および要素は、デバイスの表示要素上の任意の適切な場所に位置付けることができることを理解されたい。この実施例において、ユーザは、中断を伴わずに、上で論じたスクロール手法を使用して、テキストを読み続けることができる。ユーザが画像の1つを視聴したい地点にユーザが到達した場合、ユーザは、適切なサムネイルまたは要素を注視することができる。例えば、図6(b)において、ユーザは、要素606を注視していると検出される。要素606を注視することによって、モーダルもしくはポップアップウィンドウ、または他のそのような表示等で、対応する画像610を表示させることができる。したがって、ユーザは、もしユーザが対応する要素を注視したときに、画像を視聴することができる。サムネイルが表示されるいくつかの実施形態において、ユーザは、画像を開くことなくサムネイルを一見する能力を有することができ、ユーザが最小時間量にわたってサムネイルを注視した後にだけ画像を開く。ユーザは、テキストを再度見るか、または別の適切な場所を見ることによって、その画像をそれ以上表示させないようにすることができる。ユーザは、画像に関心があるときに画像要素を見て、その画像にそれ以上関心がなくなったときに再度テキストを見るので、そのような手法はまた、ユーザにとって比較的に自然でもある。論じられるように、そのような要素は、オーディオ、ビデオ、ゲーム、または他のメディアファイル等の、他のタイプのコンテンツを提示するために使用することもできる。
図7は、種々の実施形態に従って使用することができる、コンピューティングデバイス700の実施例を例示する。携帯型コンピューティングデバイス(例えば、スマートフォン、電子ブックリーダー、またはタブレットコンピュータ)が示されているが、本明細書で論じられる種々の実施形態に従って、入力を受け取り、処理することができる任意のデバイスを使用することができることを理解されたい。デバイスとしては、例えば、数ある中でも、デスクトップコンピュータ、ノートブックコンピュータ、電子ブックリーダー、携帯情報端末、携帯電話、ビデオゲーミングコンソールもしくはコントローラ、テレビ用セットトップボックス、および携帯型メディアプレーヤーが挙げられる。
この実施例において、コンピューティングデバイス700は、表示画面702を有し、該表示画面は、通常の操作下で、表示画面に対面するユーザに(例えば、表示画面の側と同じコンピューティングデバイスの側に)情報を表示する。この実施例において、コンピューティングデバイスは、1つ以上の画像取り込み要素を含むことができ、この実施例では、デバイスの前側に2つの画像取り込み要素704を含むが、画像取り込み要素はまた、または代替として、デバイスの側部または隅部に配置することができること、および任意の適切な数の類似のまたは異なるタイプの取り込み要素があり得ることを理解されたい。各画像取り込み要素704は、例えば、カメラ、電荷結合素子(CCD)、行動検出センサ、もしくは赤外線センサであり得、または任意の他の適切な画像取り込み技術を利用することができる。コンピューティングデバイスはまた、少なくとも1つのマイクロホン708、または他のタイプの入力データを取り込むことができる他の音声取り込み要素(複数可)を含むこともできる。デバイスの位置および/または方向の変化を検出するために、少なくとも1つの方向決定要素710を使用することができる。種々の他のタイプの入力も、当該デバイスとともに使用するために、当技術分野で知られているように利用することができる。
図8は、図7に関して説明されるデバイス700等の、コンピューティングデバイス800の1組の基本構成要素を例示する。この実施例において、デバイスは、メモリデバイスまたは要素804に記憶することができる命令を実行するための、少なくとも1つのプロセッサ802を含む。当業者には明らかなように、デバイスは、プロセッサ802によって実行するためのプログラム命令のための第1のデータ記憶装置等の、数多くのタイプのメモリ、データ記憶装置、またはコンピュータが読み出し可能な媒体を含むことができ、同じまたは別個の記憶装置を画像またはデータに使用することができ、他のデバイスと情報を共有するためにリムーバブルメモリを利用することができ、また、他のデバイスと共有するために任意の数の通信手法を利用することができる。デバイスは、一般的に、タッチ画面、電子インク(eインク)、有機発光ダイオード(OLED)、または液晶ディスプレイ(LCD)等の、いくつかのタイプの表示要素806を含むが、携帯型メディアプレーヤー等のデバイスは、音声スピーカーを通す等の、他の手段を介して情報を伝達し得る。論じられるように、数多くの実施形態において、デバイスは、デバイスの近くのユーザ、人々、または物体を撮像することができる、少なくとも1つの画像取り込み要素808を含む。画像取り込み要素は、ユーザがデバイスを操作しているときにユーザの画像を取り込むために、十分な解像度と、焦点範囲と、可視領域とを有するCCD画像取り込み要素等の、任意の適切な技術を含むことができる。コンピューティングデバイスを伴う画像取り込み要素を使用して画像またはビデオを取り込むための方法は、当技術分野でよく知られており、本明細書では詳細に論じない。画像取り込みは、単一の画像、多数の画像、定期的な撮像、連続画像取り込み、画像ストリーミング等を使用して行うことができることを理解されたい。
さらに、デバイスは、ユーザまたはアプリケーションからコマンドを受け取る、または音声入力デバイスもしくは他のデバイスを再度決定しようとする等のときに、画像取り込みを開始および/または停止する能力を含むことができる。いくつかの実施形態において、デバイスは、例えば撮像要素、画像解析等を起動させるために使用することができる、赤外線検出器または行動センサを含むことができる。例えば、デバイスは、ユーザが部屋にいないときには、画像情報を取り込み得ず、また、解析し得ない。赤外線検出器(すなわち、状態の変化を検出する1画素の解像度を有する検出器)が部屋に進入するユーザを検出する場合、例えば、デバイスは、ユーザの場所を特定しようとする、画像解析を行おうとする等のために、カメラを作動させることができる。
デバイスは、ユーザから従来の入力を受け取ることができる、少なくとも1つのさらなる入力デバイス812を含むことができる。この従来の入力としては、例えば、押しボタン、タッチパッド、タッチ画面、ホイール、ジョイスティック、キーボード、マウス、トラックボール、キーパッド、またはそれによってユーザがコマンドをデバイスに入力することができる任意の他の当該デバイスまたは要素が挙げられる。いくつかの実施形態において、これらのI/Oデバイスは、無線赤外線もしくはBluetooth(登録商標)、または他のリンクによっても接続することができる。しかしながら、いくつかの実施形態において、そのようなデバイスは、いかなるボタンも含み得ず、また、ユーザがデバイスと接触することを必要とすることなくデバイスを制御することができるように、視覚コマンドおよび音声コマンドの組み合わせだけを通して制御され得る。
少なくともいくつかの実施形態において、デバイスは、特定のユーザの識別情報を認識または認証しようとするために、少なくとも1つの画像取り込み要素および/または音声取り込み要素を利用することができる。一例では、その上にデバイスが配置されたテーブルの周囲に座っている複数の人々がいる場合があり、これらの人々は、時間とともに位置を変え得る。デバイスが、これらの人々の画像を取り込むこと、または音声データを取り込むこと等ができる場合、デバイスは、デバイスの周囲の他の人がそうでない場合、少なくともデバイスの主たるユーザを識別しようとすることができる。いくつかの実施形態において、デバイスは、画像または音声認識を使用することができる一方で、他の実施形態では、熱シグネチャまたは他の適切なタイプの情報を使用することができる。主たるユーザの識別情報を決定することができることは、適切なユーザだけしか入力をデバイスに提供することができないこと、および入力が、同じくそのデバイスを一見し得る他の人に対して、偶然に処理されないことを確実にするのを補助することができる。いくつかの実施形態において、許可されたユーザでない人がデバイスを一見していることを見分ける能力は、許可されていないユーザがデバイス上の個人情報または機密情報を視聴することを防止するために、ディスプレイをオフにする、または特定のタイプの情報だけを示す等の、他の動作をデバイスに行わせることができる。多数の許可されたユーザがいる可能性があるいくつかの実施形態において、所与のユーザの識別情報を認識する能力は、デバイスが、ある速度で情報を表示すること、またはそのユーザに対してカスタマイズされるような方法でアクセスパターンに従うことを可能にすることができる。例えば、夫および妻がデバイスを共有し、妻がデバイスを注視している場合、デバイスは、妻に対して決定された速度で情報を表示することができる。機能における種々の他の差は、種々の実施形態の範囲内で、ユーザの識別情報に基づいても提示することができる。
図9は、種々の実施形態に従って利用することができるコンテンツの表示を更新するための過程900の実施例を例示する。別途指示がない限り、本明細書で論じられる任意の過程について、種々の実施形態の範囲内で、類似もしくは代替の順序で、または並列に行われる、さらなる、より少ない、または代替のステップがあり得ることを理解されたい。この実施例では、902で、デバイスの注視追跡を起動させる。いくつかの実施形態において、ユーザは、このモードを手動で起動させなければならないが、他のモードにおいて、デバイスは、ユーザが関連する場所の範囲の中で検出されるとき、デバイスがユーザによって保持されていると判定されるとき、特定のアプリケーションが開かれるとき、または任意の他の適切な時点で、モードを起動させることができる。他の起動モードも可能である。注視コントロールを起動させることに加えて、904で、デバイスの少なくとも1つの表示要素上でユーザにコンテンツを表示することもできる。コンテンツは、任意の適切な手法を使用して選択することができ、また、注視追跡を起動させる前、その後、またはそれと実質的に同時に表示することができる。注視追跡が作動中であるときに、デバイスは、全ての方向か、いくつかの方向か、特定の範囲の方向か、または識別されたユーザに実質的に向かう方向かどうかにかかわらず、デバイスの周囲を撮像することができる。論じられるように、いくつかの実施形態において、撮像は、周辺光の画像取り込みまたはビデオ取り込みを含む一方で、他の実施形態は、赤外線撮像、熱シグネチャ検出、または任意の他のそのような手法を利用することができる。デバイスは、906で、顔の特徴(例えば、眼球)の場所を特定しようとすること、または別様に、ユーザの注視方向および/または視点を決定するのを補助する態様を識別しようとするために、取り込んだ画像情報を解析することができる。
視点が決定されると、908で、デバイスは、現在の視点によって少なくとも部分的に決定されるような方法で、情報の表示を更新することができる。上で述ベたように、これには、特定の速度でスクロールすること、またはコンテンツの特定の場所にナビゲートすること等の更新が挙げられる。910で、ユーザが、特定の動作または入力を表すアイコン等の、特定のコントロールを注視していると判定されると、912で、デバイスは、対応する動作を行うことができる。この動作は、コンテンツの異なる項に移動すること等の、本明細書で論じられる、または提案される任意の適切な動作であり得る。視点または注視方向の任意の変動に応じて、デバイスがコンテンツの表示を更新することができるように、視点を追跡および/または監視することができる。
種々の他の入力も、種々の実施形態の範囲内で可能であり得る。例えば、ページめくりは、ユーザの眼球の特定の動きによって決定され得る。注視を追跡するときには、解像度、照明、または視角等の態様に応じて、ユーザがページの最後の行を読んでいるのか、最後の1つ手前の行を読んでいるのかを判定することが困難であり得る。早過ぎるページめくりを回避するために、デバイスは、代わりに、ユーザからのさらなるまたは代替の入力を待つことができる。ユーザは、殆どの場合、ページがめくられるときに、自然に新しいページの先頭に注視方向を調整する。標準的な英語の読者の場合、例えば、ユーザは、ディスプレイの右下から左上まで注視場所を調整する。少なくともいくつかの実施形態において、デバイスは、次のページに更新するか、または別様に、コンテンツの新しい項を表示する前に、ユーザによるそのような眼球動作が検出されるまで待つことができる。そのような入力は、多くのユーザにとって自然であり得る。
他の入力も可能であり得る。例えば、ユーザは、ユーザの注視を最小期間にわたってその場所に留める、ウィンクする、うなずく、または別のそのような動作を行うことによって、項または節をブックマークまたは強調表示することができ得る。ユーザはまた、強調表示アイコン等の特定のアイコンに目を向けて、次いで、強調表示されている項を再読することもできる。テキストは、ユーザが強調表示オプションを再度見るか、または別のそのような作業を行うまで強調表示され続ける。類似の手法を使用して、種々の他の入力も可能であり得る。
ユーザから学習される、または受け取る情報を使用して、ユーザのモデルを開発することができる。論じられるように、種々の条件下での読書速度を、あるユーザについて学習することができ、読書速度モデルを生成することができる。さらに、ユーザは、種々の入力に、特定のアイコンにウィンクまたは注目する等の特定の動作を割り当てることができ、モデルに追加することができる。ユーザが、ログイン、顔認識、読書シグネチャ、または他のそのような情報を通して識別されると、そのユーザについてインターフェースをカスタマイズするために、および/または制御スキームを調整するために、適切なモデルを使用することができる。
そのような過程についてユーザの注視方向を決定するために、デバイスは、少なくともいくつかの実施形態において、デバイスに対するユーザの相対位置、ならびにその位置でのユーザの大きさまたは他の態様を決定しなければならない。図10(a)は、ユーザの頭部およびユーザの眼球の相対位置を決定するために、画像を取り込み、解析する実施例1000を例示する。アルゴリズムがユーザの瞳孔を区別することができるシステムでは、システムはまた、眼球の位置に対する瞳孔の相対位置を利用することもできる。例えば、図10(b)は、ユーザが「左」を見ている、またはユーザの右に目を向けている」)場合を例示し、よって、各ユーザの瞳孔の中心点は、(画像の中で)それぞれの眼球の中心点の左にある。同様に、図10(c)は、ユーザが「上」を見ている場合を例示する。見て分かるように、瞳孔の位置は、眼球の中心点の上側に移動している。瞳孔の位置は、ユーザが自分の頭部を移動させることなく変化する可能性がある。したがって、システムは、いくつかの実施形態において、頭部の位置の変化を伴わない一見を検出することができ得る。一実施形態に従うシステムは、ユーザの眼球に対するユーザの瞳孔の検出された位置、したがって、ユーザが注目しているディスプレイ上の決定された領域に応じて、コンピューティングデバイスの表示を調整することによって、そのような情報を利用することができる。システムはまた、自分の目を長期間にわたって閉じるユーザ等の、動きを検出することもでき、デバイスは、電子ブックリーダーを「スリープ」モードもしくは電力制限モードにする、画像取り込みを停止させる、またはデバイスの電源をオフにする等の動作を行うことができる。システムは、いくつかの実施形態において、眼球の振戦、滑らかな追跡、および弾道運動等の、異なるタイプの動きを区別することができる。いくつかの実施形態において、ユーザは、特定の弾道運動と関連付けられる一見または注視等のための種々の眼球ジェスチャーを通して、特定の入力を提供することができる。システムはまた、ユーザが現在のタイプのさらなる情報を取得すること等を可能にするために、特定の入力または動作のための継続的な注視におけるいかなる弾道運動も必要とし得ない。
一実施形態において、ユーザは、各隅部等の画面上のいくつかの目標のそれぞれに注目することによって、デバイスを較正し、それによって、デバイスは、ディスプレイ上の異なる場所について、ユーザの眼球に対する瞳孔の相対位置を検出することができる。したがって、ユーザがディスプレイの特定の部分に目を向けるときに、デバイスは、それに従って作動することができる。例えば、ユーザが電子ブックを読んでいる場合、デバイスは、ユーザが現在のページの最下部に到達したときに、自動的に、ページを上にスクロールするか、次のページにめくることができる。別の実施例において、ユーザは、単にその要素に注目することによって、ディスプレイ上のいくつかの要素から選択することができる。デバイスが、画面の独立した部分を選択するために十分正確であるユーザの注視を決定できない、他の実施形態において、デバイスは、ユーザに異なる選択肢を1つずつ順次提示することができる。ユーザは、選択肢が画面上に現れたときに、まばたきまたは他のそのような動作もしくはジェスチャーで、その選択肢を受け入れ得る。一実施例において、ユーザは、検索クエリーを提出し、検索結果のリストを受け取り得る。ユーザは、結果を視聴することができ、結果のうちの1つがそのユーザにとって関心のあるものである場合、ユーザは、そのアイテムに注目しながら入力を提出することができる。例えば、ユーザは、リスト上の第4のアイテムに注目し、2度まばたきする、または「開く」という言葉を言う等の、動作を行うことができ、そして、デバイスは、ユーザが注目している要素に対応する文書を開くことを決定することができる。特定の関心の領域に注目するユーザはまた、特定の関心の領域が識別されるまで、ディスプレイにその領域および周囲の領域を(任意の回数)ズームさせることもできる。一部の場合において、ユーザは、ディスプレイ上のある位置に注目し、「ズーム」と言う、または前方にうなずく等の検出可能な行動を行い得る。別の実施例では、ディスプレイに対する多数のレベルがある場合、または多数の「ズーム」レベルがある場合、ディスプレイは、ユーザが十分な期間にわたって見ている限り、ユーザがどこを見ているかに応じて、自動的にズームインまたはズームアウトすることができる。例えば、ユーザが、地図に注目していて、特定の州に注目する場合、数秒後に、ディスプレイは、その特定の州(およびおそらくは周囲の州)を示すためにズームインし得る。ズームインしている間にユーザが別の州に目を向ける場合、ディスプレイは、その州に移行するか、ズームアウトすることができ、それによって、ユーザは、別の州を選択することができる。ディスプレイはまた、ズームコマンドに対応するアイコンまたは要素を有することもでき、よって、ユーザは、ズームインするために、「ズームイン」要素に注目することができ、そして、ユーザがズームしたい特定の領域にも注目し得る。ディスプレイは、これらの入力を受けて、所望の場所でズームすることができる。さらに、ズームまたは他の動作を制御するために、任意の識別可能な眼球のジェスチャーが利用可能であり得る。まばたき、ウィンク、または目の回転は全て、ズームすることまたはアイテムを選択すること等の動作を潜在的に高め得る、識別可能なジェスチャーであり得る。
相対方向を決定するのに有用な種々の態様を決定するために、ユーザの顔の1つ以上の所望の特徴の場所を特定するための種々の手法を利用することができる。例えば、ユーザの頭部が入力として使用される場合、誤った判断をし得る人間の頭部に類似して形成することができる、数多くのオブジェクトがあり得る。また、「いいえ」とうなずくユーザは、実際に、ユーザの頭部の位置を、動きを登録するのに十分移動させ得ない。故に、種々の手法は、位置および動きの決定を支援するために、ユーザの眼球等の特徴を利用する。例えば、ユーザの頭部または顔のおよその場所およびサイズを決定するために、画像を解析することができる。図11(a)は、ユーザの頭部または顔1000のおよその位置および領域が決定され、そのような決定を行うための複数の画像解析アルゴリズムのうちの1つを使用して、位置の表示として仮想「ボックス」1102が顔の周囲に配置される実施例を例示する。1つのアルゴリズムを使用することで、仮想「ボックス」がユーザの顔の周囲に配置され、このボックスの位置および/またはサイズは、相対的なユーザの位置を監視するために継続的に更新され、監視される。また、ユーザの眼球のそれぞれ(または一部の場合では、縦に並ぶ眼球)のおよその場所および領域1104を決定するために、類似のアルゴリズムを使用することもできる。ユーザの眼球の場所も決定することによって、画像が、ユーザの頭部が実際にユーザの頭部を含むと判定される可能性をより高くできる、およびユーザがデバイスに対面していると判定することができるといった、利点を得ることができる。さらに、うなずくまたは首を前後に振る等の行動を行うときには、ユーザの眼球の相対的な動きを、ユーザの頭部の全体的な動きよりも容易に検出することができる。
ユーザの顔上の特徴の場所を決定するために、種々の他のアルゴリズムを使用することができる。例えば、図11(b)は、ユーザの顔の種々の特徴が識別され、画像の中に地点の場所1106が割り当てられる実施例を例示する。したがって、システムは、ユーザの特徴の種々の態様を検出することができ、また、動きなどの変化、または形状もしくは表情の変化を判定することができる。そのような手法は、ユーザの口元の端点および少なくとも1つの中心点等の、特徴に沿った種々の地点を決定することができるので、特定の状況において、図11(a)の一般的な手法に勝る利点を提供する。故に、ユーザの口元または顔の全体的な位置が移動しなかった場合であっても、笑顔または渋い顔等の表情を取り込むことができる。
ユーザの顔の特徴の位置が識別されると、ユーザとデバイスとの間の相対動作を検出し、入力として利用することができる。例えば、図11(c)は、ユーザの頭部1100が、撮像要素の視聴可能な領域に対して上下に移動している実施例を示す。論じられるように、これは、ユーザが自分の頭部を振る、またはユーザがデバイスを上下に移動させる等の結果であり得る。図11(d)は、ユーザ、デバイス、またはそれらの双方の動きを通して、ユーザがデバイスに対して右から左に移動している、類似の実施例を例示する。見て分かるように、各動きは、それぞれ、垂直または水平の動きとして追跡することができ、それぞれ、特定の機能を行うための入力として異なって処理することができる。一実施例において、上、下、および左右の動作に従うことによって、インターフェース表示上のカーソルの位置を制御するために、監視された動きを使用することができる。理解されるように、そのような過程はまた、対角線または他のそのような動きも検出することができる。図11(e)はさらに、ユーザがデバイスおよび/またはユーザの頭部を傾斜させ、眼球の位置の相対変化が回転として検出される実施例を例示する。いくつかのシステムでは、眼球の相対位置に対応する「線」が監視され、この線の角度の変化は、この回転を入力と解釈すべきときを判定するために、角度閾値と比較することができる。
図11(f)は、ユーザの顔上の種々の特徴の位置を決定するために、図11(b)に関して説明したような手法を使用する、別の利点を例示する。この誇張された実施例では、第2のユーザの頭部1108の特徴が、異なる相対位置および間隔を有することが分かる。したがって、デバイスはまた、1人のユーザの特徴の位置を決定することができるだけでなく、異なるユーザを区別することもできる。後で本明細書で論じられるように、これは、デバイスが、異なるユーザからの入力に対して異なって行うことができるようにする。また、デバイスは、例えば、デバイスに向かうおよびそこから離れる動きをデバイスが検出することができるように、種々の特徴の間隔の量および比率に基づいて、ユーザがどのくらいデバイスに近いのかを検出するように構成することができる。これは、注視検出の精度を向上させるのを補助することができる。
さらに、顔の特徴および/または頭部の動きに関して数多くの実施形態が説明されているが、デバイスは、入力を提供するのに有用な他のタイプの動きを取り込んで、解析することができることを理解されたい。例えば、ユーザは、手の位置を変化させる、または空中で「描画する」ことによって、ディスプレイ上のカーソルを操作することができ得る。ユーザはまた、「324」という数字を入力するために、3本の指、次いで2本の指、次いで4本の指を立てる(場合により、その後に何らかの終了コマンドを続ける)こと等によって、数の入力を提供するために、何本かの指を立てることもでき得る。一実施形態において、ユーザは、入力を提供するために、任意の識別可能な方向に何本かの指を立てることができ、いくつかの実施形態では、入力を提供するために表現(例えば、文字、単語、または句)を使用することができる。例えば、ユーザが、アイテムを購入するためにフォームに記入していて、配達先住所を記入することが必要である場合、ユーザは、「家」に関する行動または任意の他の適切な行動を成す、特定の指を立てる等の行動を行うことができ得、それによって、デバイスは、そのユーザについて記憶している「家」の住所情報を使用して、フォームに記入することを理解する。
また、入力に使用される複雑な行動は、顔の動きおよびデバイスの動きの組み合わせを含むことができることも理解されたい。例えば、デバイスをシャットダウンすることを所望するユーザは、デバイスを右に傾斜させ、次いで、上下にうなずくこと等の動作を行い得る。このようにして、任意の眼球、頭部、または手のジェスチャーを使用することができ、額のしわ、眼のウィンク、および横への傾きを、全て識別することができる。入力として作用する動作のいくつかの組み合わせのいずれかは、本明細書に含まれる教示および提案を考察する当業者に対して明らかでなければならない。
いくつかの実施形態において、コンピューティングデバイスは、コンピューティングデバイスのアルゴリズムがその領域に対応する画像データだけしか解析する必要がないように、取り込んだ画像の中のユーザの眼球または他のそのような特徴に対応するおよその領域または関心の領域を決定し、追跡することができ、これは、画像、特に高解像度でフルカラーの画像に必要とされる処理の量を大幅に低減することができる。
少なくともいくつかの実施形態において、デバイスは、画像の背景もしくは他の態様の動きを検出することによって、種々の特徴の間隔、形状、もしくはサイズを解析することによって、または加速度計等の動きセンサ要素を使用すること、等によって、ユーザの動きとデバイスの動きを区別することができる。したがって、そのユーザに対するデバイスの方向または場所を決定するために画像取り込み要素を使用する、本明細書で説明される実施形態において、ユーザは、デバイスを移動させること、ユーザの態様を変更すること、またはこれらの双方によって、特定のコマンドに対応する所与のタイプの行動を入力するというオプションを有することができる。さらに、画像解析の精度を向上させるために、加速度計またはジャイロスコープによって測定されるデバイスの傾斜等の、決定された動作に少なくとも基づいて、音声取り込みの方向を調整することができる。
いくつかの他の手法も、種々の実施形態の範囲内で使用することができる。例えば、人間ユーザの少なくともいくつかの態様の位置を決定および追跡しようとするために、熱撮像または別のそのような手法を使用することができる。多くの場合、撮像システムは、マスマーケティングのために十分小型で安価であることが望ましく、よって、簡単なまたは従来の撮像手法および構成要素が好ましい可能性がある。特定の既存のカメラは、赤外線放射を検出することができるが、一般的にIRフィルタを利用することができる。IRフィルタを伴わず、潜在的に周辺光フィルタを伴うこれらのカメラを利用することで、これらの比較的安価なカメラをIR検出器として使用することが可能になり得る。
論じられるように、説明される実施形態に従って、異なる手法を種々の環境で実現することができる。例えば、図12は、種々の実施形態に従って態様を実現するための、環境1200の実施例を例示する。認識されるように、説明の目的でウェブに基づく環境が使用されるが、種々の実施形態を実現するために、必要に応じて、異なる環境が使用され得る。システムは、電子クライアントデバイス1202を含み、該デバイスとしては、適切なネットワーク1204を通じて要求、メッセージ、または情報を送信および受信し、情報をデバイスのユーザに搬送するように操作可能な、任意の適切なデバイスが挙げられる。そのようなクライアントデバイスの例としては、パーソナルコンピュータ、携帯電話、ハンドヘルドメッセージングデバイス、ラップトップコンピュータ、セットトップボックス、携帯情報端末、電子ブックリーダー等が挙げられる。ネットワークとしては、イントラネット、インターネット、セルラーネットワーク、ローカルエリアネットワーク、もしくは任意の他のそのようなネットワーク、またはそれらの組み合わせを含む、任意の適切なネットワークが挙げられる。そのようなシステムに使用される構成要素は、選択されたネットワークおよび/または選択環境のタイプに少なくとも部分的に依存し得る。そのようなネットワークを介して通信するためのプロトコルおよび構成要素はよく知られており、本明細書では詳細に論じない。ネットワークを通じた通信は、有線接続または無線接続、およびそれらの組み合わせを介して可能にすることができる。この実施例では、当業者には明らかなように、要求を受け取り、それに応じてコンテンツを提供するためのウェブサーバ1206を環境が含むので、このネットワークは、インターネットを含むが、他のネットワークの場合、類似の目的を提供する代替のデバイスを使用することができる。
実例となる環境は、少なくとも1つのアプリケーションサーバ1208と、データストア1210とを含む。連鎖され得るまたは別様には構成され得る、適切なデータストアからデータを取得する等の作業を行うように相互作用することができる、いくつかのアプリケーションサーバ、層もしくは他の要素、過程、または構成要素があり得ることを理解されたい。本明細書で使用される「データストア」という用語は、データを記憶し、それにアクセスし、それを取り出すことができる任意のデバイスまたはデバイスの組み合わせを指し、任意の数のデータサーバ、データベース、データ記憶デバイス、データ記憶媒体、およびそれらの任意の組み合わせを、任意の標準型、分散型、またはクラスター型の環境において含み得る。アプリケーションサーバ1208は、クライアントデバイスのための1つ以上のアプリケーションの態様を実行するために、必要に応じて、データストア1210と統合するための、およびアプリケーションのためのデータアクセスおよびビジネスロジックの大部分を取り扱うための、任意の適切なハードウェアおよびソフトウェアを含むことができる。アプリケーションサーバは、データストアと連携してアクセス制御サービスを提供し、また、この実施例においてHTML、XML、または別の適切な構造化言語の形態でウェブサーバ1206によってユーザに提供され得る、ユーザに転送されるテキスト、グラフィックス、オーディオ、および/またはビデオ等のコンテンツを生成することができる。全ての要求および応答、ならびにクライアントデバイス1202とアプリケーションサーバ1208との間のコンテンツの送達は、ウェブサーバ1206によって取り扱うことができる。本明細書で論じられる構造化コードは、本明細書で他の場所で論じられるように、任意の適切なデバイスまたはホストマシン上で実行することができるので、ウェブサーバおよびアプリケーションサーバは必要とされず、これらは単に例示的な構成要素に過ぎないことを理解されたい。
データストア1210は、いくつかの別個のデータテーブル、データベース、または他のデータ記憶機構と、特定の態様に関連するデータを記憶するための媒体を含むことができる。例えば、例示されるデータストアは、製品側のコンテンツを提供するために使用することができる、コンテンツ(例えば、製品データ)1212およびユーザ情報1216を記憶するための機構を含む。データストアはまた、ログデータまたはセッションデータ1214を記憶するための機構も含むように示される。ページ画像情報およびアクセス権利情報等の、データストアに記憶する必要があり得る、数多くの他の態様があり得、必要に応じて上で列記した機構のいずれかに、またはデータストア1210の付加的な機構に記憶することができることを理解されたい。データストア1210は、アプリケーションサーバ1208から命令を受け取って、それに応じてデータを取得する、更新する、または別様には処理するために、それと関連する論理を通して操作可能である。一例において、ユーザは、特定のタイプのアイテムの検索要求を提出し得る。この場合、データストアは、ユーザの識別情報を照合するためにユーザ情報にアクセスし得、また、そのタイプのアイテムに関する情報を取得するために、カタログの詳細情報にアクセスすることができる。情報は、次いで、ユーザがユーザデバイス1202上のブラウザを介して視聴することができる、ウェブページ上の結果リスト等で、ユーザに返すことができる。関心の特定のアイテムの情報は、ブラウザの専用ページまたはウィンドウで視聴することができる。
各サーバは、一般的に、そのサーバの一般管理および操作のための実行可能プログラム命令を提供するオペレーティングシステムを含み、また一般的に、サーバのプロセッサによって実行されたときに、サーバがその意図する機能を行うことを可能にする命令を記憶する、コンピュータが読み出し可能な媒体を含む。オペレーティングシステムおよびサーバの一般機能の好適な実現例は、既知であるか、または商業的に入手可能であり、また、特に本明細書の開示に照らして、当業者によって容易に実現される。
一実施形態における環境は、1つ以上のコンピュータネットワークまたは直接接続を使用して、通信リンクを介して相互接続される複数のコンピュータシステムおよび構成要素を利用する、分散コンピューティング環境である。しかしながら、そのようなシステムは、図12で例示されるよりも少ない数または多い数の構成要素を有するシステムで十分同等に動作できることが、当業者に認識されるであろう。したがって、図12のシステム1200の描写は、事実上、実例となるものであり、本開示の範囲を限定するものとみなすべきではない。
種々の実施形態はさらに、多種多様な操作環境で実現することができ、一部の場合において、いくつかのアプリケーションのいずれかを操作するために使用することができる、1つ以上のユーザコンピュータまたはコンピューティングデバイスを含むことができる。ユーザまたはクライアントデバイスとしては、標準的なオペレーティングシステムを実行するデスクトップまたはラップトップコンピュータ等の、数多くの汎用パーソナルコンピュータ、ならびに、モバイルソフトウェアを実行し、かついくつかのネットワークおよびメッセージングプロトコルをサポートすることができる、セルラーデバイス、無線デバイス、およびハンドヘルドデバイスのいずれかが挙げられる。そのようなシステムとしてはまた、開発およびデータベース管理等の目的で、種々の市販のオペレーティングシステムおよび他の既知のアプリケーションのいずれかを実行する、数多くのワークステーションも挙げられる。これらのデバイスとしてはまた、ネットワークを介して通信することができる、ダミー端末、シンクライアント、ゲームシステム、および他のデバイス等の、他の電子デバイスも挙げられる。
大部分の実施形態は、TCP/IP、OSI、FTP、UPnP、NFS、CIFS、およびAppleTalk等の、種々の市販のプロトコルのいずれかを使用して通信をサポートするための、当業者が精通している少なくとも1つのネットワークを利用する。ネットワークは、例えば、ローカルエリアネットワーク、ワイドエリアネットワーク、仮想プライベートネットワーク、インターネット、イントラネット、エクストラネット、公衆交換電話網、赤外線ネットワーク、無線ネットワーク、およびそれらの任意の組み合わせとすることができる。
ウェブサーバを利用する実施形態において、ウェブサーバは、HTTPサーバ、FTPサーバ、CGIサーバ、データサーバ、Java(登録商標)サーバ、およびビジネスアプリケーションサーバを含む、種々のサーバまたは中間層アプリケーションのいずれかを動作させることができる。サーバ(複数可)はまた、ユーザデバイスからの要求に応じて、Java(登録商標)、C、C#、もしくはC++等の任意のプログラミング言語、またはPerl、Python、もしくはTCL等の任意のスクリプト言語、ならびにそれらの組み合わせで書かれた1つ以上のスクリプトまたはプログラムとして実現され得る1つ以上のウェブアプリケーションを実行すること等によって、プログラムまたはスクリプトを実行することも可能であり得る。サーバ(複数可)としてはまた、Oracle(登録商標)、Microsoft(登録商標)、Sybase(登録商標)、およびIBM(登録商標)から市販されているものが挙げられるがそれらに限定されない、データベースサーバも挙げられる。
環境は、上で論じたように、種々のデータストア、ならびに他のメモリおよび記憶媒体を含むことができる。これらは、1つ以上のコンピュータに対してローカルな(および/またはその中に存在する)、またはネットワーク全体にわたるコンピュータのいずれかまたは全てからリモートな記憶媒体上等の、種々の場所に存在することができる。特定の1組の実施形態において、情報は、当業者が精通しているストレージエリアネットワーク(「SAN」)の中に存在し得る。同様に、必要に応じて、コンピュータ、サーバ、または他のネットワークデバイスに起因する機能を行うための任意の必要なファイルが、ローカルおよび/またはリモートで記憶され得る。システムがコンピュータ制御のデバイスを含む場合、そのような各デバイスは、バスを介して電気的に連結され得るハードウェア要素を含むことができ、該要素は、例えば、少なくとも1つの中央処理ユニット(CPU)と、少なくとも1つの入力デバイス(例えば、マウス、キーボード、コントローラ、タッチセンサ式表示要素、またはキーパッド)と、少なくとも1つの出力デバイス(例えば、表示デバイス、プリンタ、またはスピーカー)とを含む。そのようなシステムはまた、ディスクドライブ、光記憶デバイス、およびランダムアクセスメモリ(RAM)またはリードオンリーメモリ(ROM)等の固体記憶デバイス、ならびにリムーバブル媒体デバイス、メモリカード、フラッシュカード等の、1つ以上の記憶デバイスも含み得る。
そのようなデバイスとしてはまた、上で説明したように、コンピュータが読み出し可能な記憶媒体リーダー、通信デバイス(例えば、モデム、ネットワークカード(無線または有線)、赤外線通信デバイス)、および作業メモリも挙げられる。コンピュータが読み出し可能な記憶媒体リーダーは、リモート、ローカル、固定の、および/またはリムーバブルな記憶デバイスを表すコンピュータが読み出し可能な記憶媒体、ならびにコンピュータが読み出し可能な情報を一時的におよび/またはより恒久的に含む、記憶する、伝送する、および取り出すための記憶媒体と接続することができる、またはそれを受け取るように構成することができる。システムおよび種々のデバイスはまた、一般的に、オペレーティングシステム、およびクライアントアプリケーションまたはウェブブラウザ等のアプリケーションプログラムを含む、少なくとも1つのワーキングメモリデバイス内に位置する、数多くのソフトウェアアプリケーション、モジュール、サービス、または他の要素も含む。代替の実施形態は、上で説明した数多くの変形例を有し得ることを理解されたい。例えば、カスタマイズされたハードウェアも使用され得、および/または特定の要素が、ハードウェア、ソフトウェア(アプレット等のポータブルソフトウェアを含む)、または双方で実現され得る。さらに、ネットワーク入力/出力デバイス等の他のコンピューティングデバイスへの接続が利用され得る。
コードまたはコードの部分を収容するための記憶媒体およびコンピュータが読み出し可能な媒体としては、コンピュータが読み出し可能な命令、データ構造、プログラムモジュール、または他のデータ等の情報を記憶および/または伝送するための任意の方法または技術で実装される揮発性および不揮発性で、取り外し可能および取り外し不可能な媒体等が挙げられるが、それらに限定されない、RAM、ROM、EEPROM、フラッシュメモリ、または他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)または他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、または他の磁気記憶デバイス、または所望の情報を記憶するために使用することができ、システムデバイスによってアクセスすることができる、任意の他の媒体を含む、記憶媒体および通信媒体を含む、当技術分野において知られているまたは使用される、任意の適切な媒体が挙げられる。本明細書で提供される開示および教示に基づいて、当業者は、種々の実施形態を実現するための他の様式および/または方法を認識するであろう。
したがって、本明細書および図面は、限定的な意味ではなく、例示的な意味であるとみなされるべきである。しかしながら、特許請求の範囲に記載された本発明のより広い趣旨および範囲から逸脱することなく、種々の修正および変更が行われ得ることが明らかであろう。
付記
付記1. 電子デバイス上にコンテンツを表示する方法であって、
電子デバイスの少なくとも1つの画像取り込み要素を使用して、画像情報を取り込むことと、
電子デバイスに対するユーザの視点を決定するために、電子デバイスのプロセッサを使用して、画像情報を解析することと、
決定した視点に少なくとも部分的に基づいて、決定した視点が少なくとも部分的に電子デバイスの表示要素上にあるときに、電子デバイス上で表示コンテンツがスクロールされる速度を制御することと、を含み、
電子デバイス上で表示コンテンツがスクロールされる速度は、ユーザの視点の変化を通して、ユーザと電子デバイスとの間の物理的相互作用を必要とせず、ユーザによって制御可能である方法。
付記2. 電子デバイスに対するユーザの目標視点の範囲を選択することと、
ユーザの視点が目標視点の範囲から外れているときに、スクロール速度を調整することと、を含む、付記1に記載の方法。
付記3. 目標視点の範囲は、経時的に変化する、付記2に記載の方法。
付記4. 視点が目標視点の範囲の第1の側にあるときには、スクロール速度を増加させ、視点が目標視点の範囲の第2の側にあるときには、減少させる、付記2に記載の方法。
付記5. 電子デバイス上にコンテンツを表示する、コンピュータにより実現される方法であって、
実行可能命令で構成される1つ以上のコンピューティングシステムの制御下で、
電子デバイスの表示要素上にコンテンツの第1のビューを表示することと、
前記電子デバイスに対するユーザの注視方向を決定することと、
前記決定した注視方向に少なくとも部分的に基づいて、前記表示要素上に少なくともコンテンツの第2のビューを表示することと、を含み、
前記ユーザは、前記電子デバイスに対する前記ユーザの注視方向の変化を通して、前記表示要素上のコンテンツの前記表示を調整することができる、
コンピュータにより実現される方法。
付記6. 前記ユーザの前記注視方向を決定することは、
前記電子デバイスの少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
前記ユーザの前記注視方向を決定するために、前記取り込んだ1つ以上の画像を解析することと、を含む、付記5に記載のコンピュータにより実現される方法。
付記7. 前記ユーザの前記注視方向を決定するために、前記取り込んだ1つ以上の画像を解析することは、前記電子デバイスに対する前記ユーザの相対位置を決定するために、前記1つ以上の画像を解析することと、前記ユーザの眼球の少なくとも一部分の相対場所を決定することと、を含む、付記6に記載のコンピュータにより実現される方法。
付記8. 前記画像取り込み要素は、カメラまたは赤外線検出器のうちの少なくとも1つを含む、付記6に記載のコンピュータにより実現される方法。
付記9. ユーザの識別情報を認証するために、前記取り込んだ1つ以上の画像を解析することをさらに含み、前記電子デバイスは、前記ユーザの前記識別情報に基づいて、情報の前記表示を変更するように構成される、付記6に記載のコンピュータにより実現される方法。
付記10. ユーザが認証された時点でコンテンツを表示する際に有用なユーザのモデルを維持することをさらに含む、付記6に記載のコンピュータにより実現される方法。
付記11. 少なくともコンテンツの第2のビューを表示することは、コンテンツをスクロールすること、およびコンテンツの異なる一部分を表示することのうちの少なくとも1つを含む、付記5に記載のコンピュータにより実現される方法。
付記12. 前記スクロールの速度は、前記電子デバイスに対する前記ユーザの前記注視方向に少なくとも部分的に基づいて決定される、付記11に記載のコンピュータにより実現される方法。
付記13. 速度は、複数のゾーンのうちの少なくとも1つおよび速度関数に基づいて決定される、付記12に記載のコンピュータにより実現される方法。
付記14. コンテンツの第2のビューは、ユーザの注視方向が画像またはメディアファイルと関連付けられる要素に向いたときの、その画像またはメディアファイルの表示に対応する、付記5に記載のコンピュータにより実現される方法。
付記15. ユーザに対するデフォルトのスクロール速度は、ユーザによるコンテンツの視聴中に行われる調整に少なくとも部分的に基づいて調整される、付記5に記載のコンピュータにより実現される方法。
付記16. ユーザは、表示要素の領域に特定の動作を割り当てることができ、ユーザは、関連する領域を注視することによって、それらの特定の動作のうちの1つを起動することができる、付記5に記載のコンピュータにより実現される方法。
付記17. 前記コンテンツのデフォルトのスクロール速度は、前記コンテンツのタイプに少なくとも部分的に基づく、付記5に記載のコンピュータにより実現される方法。
付記18. 前記第2のビューは、コンテンツの異なるページを含み、前記第2のビューはさらに、コンテンツの新しいページの最初に関連付けられる領域に向かって前記注視方向を移動させるユーザに基づいて表示される、付記5に記載のコンピュータにより実現される方法。
付記19. コンピューティングデバイスであって、
プロセッサと、
表示要素と、
少なくとも1つの画像取り込み要素と、
1組の動作を行うために、前記プロセッサによって実行されるように操作可能な命令を含む、メモリデバイスであって、前記プロセッサが、
電子デバイスの表示要素上にコンテンツの第1のビューを表示すること、
前記電子デバイスに対するユーザの注視方向を決定すること、および
前記決定した注視方向に少なくとも部分的に基づいて、前記表示要素上に少なくともコンテンツの第2のビューを表示することを可能にする、メモリデバイスと、を備え、
前記ユーザは、前記電子デバイスに対する前記ユーザの注視方向の変化を通して、前記表示要素上のコンテンツの前記表示を調整することができる、
コンピューティングデバイス。
付記20. 前記ユーザの前記注視方向を決定することは、
前記電子デバイスの少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
前記ユーザの相対位置および前記ユーザの眼球に関する情報を決定するために、前記取り込んだ1つ以上の画像を解析することと、を含む、付記19に記載のコンピューティングデバイス。
付記21. 前記少なくとも1つの画像取り込み要素は、カメラまたは赤外線検出器のうちの少なくとも1つを含む、付記19に記載のコンピューティングデバイス。
付記22. 前記命令は、実行されたときにさらに、前記コンピューティングデバイスに、
ユーザの識別情報を認証するために、前記取り込んだ1つ以上の画像を解析させ、前記電子デバイスは、前記ユーザの前記識別情報に基づいて、情報の前記表示を変更するように構成される、付記19に記載のコンピューティングデバイス。
付記23. コンピューティングデバイスを制御するためのプロセッサ実行可能命令を記憶する、非一時的なコンピュータが読み出し可能な記憶媒体であって、
電子デバイスの表示要素上にコンテンツの第1のビューを表示するためのプログラムコードと、
電子デバイスに対するユーザの注視方向を決定するためのプログラムコードと、
決定した注視方向に少なくとも部分的に基づいて、表示要素上に少なくともコンテンツの第2のビュー表示するためのプログラムコードと、を備え、
ユーザは、電子デバイスに対するユーザの注視方向の変化を通して、表示要素上のコンテンツの表示を調整することができる、
非一時的なコンピュータが読み出し可能な記憶媒体。
付記24. ユーザの注視方向を決定することは、
電子デバイスの少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
ユーザの相対位置およびユーザの眼球に関する情報を決定するために、取り込んだ1つ以上の画像を解析することと、を含む、付記23に記載の非一時的なコンピュータが読み出し可能な記憶媒体。
付記25. ユーザの識別情報を認証するために、取り込んだ1つ以上の画像を解析するためのプログラムコードをさらに備え、電子デバイスは、ユーザの識別情報に基づいて、情報の表示を変更するように構成される、付記23に記載の非一時的なコンピュータが読み出し可能な記憶媒体。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]電子デバイス上にコンテンツを表示する、コンピュータにより実現される方法であって、
実行可能命令で構成される1つ以上のコンピューティングシステムの制御下で、
電子デバイスの表示要素上にコンテンツの第1のビューを表示することと、
前記電子デバイスに対するユーザの注視方向を決定することと、
前記決定した注視方向に少なくとも部分的に基づいて、前記表示要素上に少なくともコンテンツの第2のビューを表示することと、を含み、
前記ユーザは、前記電子デバイスに対する前記ユーザの注視方向の変化を通して、前記表示要素上のコンテンツの前記表示を調整することができる、
コンピュータにより実現される方法。
[2]前記ユーザの前記注視方向を決定することは、
前記電子デバイスの少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
前記ユーザの前記注視方向を決定するために、前記取り込んだ1つ以上の画像を解析することと、を含む、[1]に記載のコンピュータにより実現される方法。
[3]前記ユーザの前記注視方向を決定するために、前記取り込んだ1つ以上の画像を解析することは、前記電子デバイスに対する前記ユーザの相対位置を決定するために、前記1つ以上の画像を解析することと、前記ユーザの眼球の少なくとも一部分の相対場所を決定することと、を含む、[2]に記載のコンピュータにより実現される方法。
[4]前記画像取り込み要素は、カメラまたは赤外線検出器のうちの少なくとも1つを含む、[2]に記載のコンピュータにより実現される方法。
[5]ユーザの識別情報を認証するために、前記取り込んだ1つ以上の画像を解析することをさらに含み、前記電子デバイスは、前記ユーザの前記識別情報に基づいて、情報の前記表示を変更するように構成される、[2]に記載のコンピュータにより実現される方法。
[6]少なくともコンテンツの第2のビューを表示することは、前記コンテンツをスクロールすること、および前記コンテンツの異なる一部分を表示することのうちの少なくとも1つを含む、[1]に記載のコンピュータにより実現される方法。
[7]前記スクロールの速度は、前記電子デバイスに対する前記ユーザの前記注視方向に少なくとも部分的に基づいて決定される、[6]に記載のコンピュータにより実現される方法。
[8]コンテンツの前記第2のビューは、前記ユーザの前記注視方向が画像またはメディアファイルと関連付けられる要素に向いたときの、その画像またはメディアファイルの表示に対応する、[1]に記載のコンピュータにより実現される方法。
[9]前記ユーザは、前記表示要素の領域に特定の動作を割り当てることができ、前記ユーザは、前記関連する領域を注視することによって、それらの特定の動作のうちの1つを起動することができる、[1]に記載のコンピュータにより実現される方法。
[10]前記コンテンツのデフォルトのスクロール速度は、前記コンテンツのタイプに少なくとも部分的に基づく、[1]に記載のコンピュータにより実現される方法。
[11]前記第2のビューは、コンテンツの異なるページを含み、前記第2のビューはさらに、コンテンツの新しいページの最初に関連付けられる領域に向かって前記注視方向を移動させるユーザに基づいて表示される、[1]に記載のコンピュータにより実現される方法。
[12]コンピューティングデバイスであって、
プロセッサと、
表示要素と、
少なくとも1つの画像取り込み要素と、
1組の動作を行うために、前記プロセッサによって実行されるように操作可能な命令を含む、メモリデバイスであって、前記プロセッサが、
電子デバイスの表示要素上にコンテンツの第1のビューを表示すること、
前記電子デバイスに対するユーザの注視方向を決定すること、および
前記決定した注視方向に少なくとも部分的に基づいて、前記表示要素上に少なくともコンテンツの第2のビューを表示することを可能にする、メモリデバイスと、を備え、
前記ユーザは、前記電子デバイスに対する前記ユーザの注視方向の変化を通して、前記表示要素上のコンテンツの前記表示を調整することができる、
コンピューティングデバイス。
[13]前記ユーザの前記注視方向を決定することは、
前記電子デバイスの少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
前記ユーザの相対位置および前記ユーザの眼球に関する情報を決定するために、前記取り込んだ1つ以上の画像を解析することと、を含む、[12]に記載のコンピューティングデバイス。
[14]前記少なくとも1つの画像取り込み要素は、カメラまたは赤外線検出器のうちの少なくとも1つを含む、[12]に記載のコンピューティングデバイス。
[15]前記命令は、実行されたときにさらに、前記コンピューティングデバイスに、
ユーザの識別情報を認証するために、前記取り込んだ1つ以上の画像を解析させ、前記電子デバイスは、前記ユーザの前記識別情報に基づいて、情報の前記表示を変更するように構成される、[12]に記載のコンピューティングデバイス。

Claims (25)

  1. 電子デバイス上にコンテンツを表示する方法において、
    前記電子デバイスの少なくとも1つの画像取り込み要素を使用して、画像情報を取り込むことと、
    前記電子デバイスのプロセッサを使用して、前記画像情報を解析して、前記電子デバイスに関するユーザの視点を決定することと、
    前記決定した視点が少なくとも部分的に前記電子デバイスの表示要素上にあるときに、前記決定した視点に少なくとも部分的に基づいて、前記電子デバイス上で表示コンテンツをスクロールする速度を制御し、前記ユーザの視点が前記表示要素の中央部から離れるように移動するにつれて、前記表示コンテンツをスクロールする速度を調整することと、
    前記電子デバイスの前記プロセッサを使用して、前記ユーザのために、目標視点が前記表示要素の中央部から離れて移動されるかどうかを決定することと、
    少なくともある時間期間の間に前記ユーザの視点を前記目標視点に実質的に向けさせるために、前記表示コンテンツをスクロールする速度を調整ることとを含み、
    前記電子デバイス上で表示コンテンツをスクロールする速度は、前記中央部または前記目標視点のうちの少なくとも1つから離れている前記ユーザの視点における変化を通して、前記ユーザと前記電子デバイスとの間の物理的相互作用を必要とせずに、前記ユーザによって制御可能である方法。
  2. 前記電子デバイスに関する、前記ユーザに対しての目標視点の範囲を選択することと、
    前記ユーザの視点が前記目標視点の範囲から外れているときに、前記スクロールする速度を調整することとをさらに含む、請求項1に記載の方法。
  3. 前記目標視点の範囲は、経時的に変化する、請求項2に記載の方法。
  4. 前記視点が前記目標視点の範囲の第1の側にあるときには、前記スクロール速度を増加させ、前記視点が前記目標視点の範囲の第2の側にあるときには、前記スクロール速度を減少させる、請求項2に記載の方法。
  5. 電子デバイス上にコンテンツを表示する、コンピュータにより実現される方法において、
    実行可能命令を有するように構成されている1つ以上のコンピューティングシステムの制御下で、
    電子デバイスの表示要素上にコンテンツを表示することと、
    前記電子デバイスのプロセッサを使用して、前記電子デバイスに関するユーザの注視方向を決定することと、
    前記決定した注視方向が前記表示要素の中央部から実質的に離れるように移動することに少なくとも部分的に基づいて、前記表示要素上で表示コンテンツをスクロールする速度を制御することと、
    前記電子デバイスの前記プロセッサを使用して、前記ユーザのために、目標視点が前記表示要素の中央部から実質的に離れて移動されるかどうかを決定することと、
    少なくともある時間期間の間に前記ユーザの注視方向を前記目標視点に実質的に向けさせるために、前記表示コンテンツをスクロールする速度を調整ることとを含み、
    前記ユーザは、前記表示要素の中央部、または前記目標視点のうちの少なくとも1つから離れている注視方向における変化を通して、前記表示要素上の前記コンテンツの表示を調整することができる、コンピュータにより実現される方法。
  6. 前記ユーザの注視方向を決定することは、
    前記電子デバイスの少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
    前記取り込んだ1つ以上の画像を解析して、前記ユーザの注視方向を決定することとを含む、請求項5に記載のコンピュータにより実現される方法。
  7. 前記取り込んだ1つ以上の画像を解析して、前記ユーザの注視方向を決定することは、前記1つ以上の画像を解析して、前記電子デバイスに関する前記ユーザの相対位置を決定することと、前記ユーザの眼球の少なくとも一部分の相対場所を決定することとを含む、請求項6に記載のコンピュータにより実現される方法。
  8. 前記画像取り込み要素は、カメラまたは赤外線検出器のうちの少なくとも1つを含む、請求項6に記載のコンピュータにより実現される方法。
  9. 前記取り込んだ1つ以上の画像を解析して、ユーザの識別情報を認証することをさらに含み、前記電子デバイスは、前記ユーザの識別情報に基づいて、前記コンテンツの表示を変更するように構成されている、請求項6に記載のコンピュータにより実現される方法。
  10. 前記ユーザ認証されることに応じて、コンテンツを表示する際に有用な、前記ユーザに対するモデルを維持することをさらに含む、請求項6に記載のコンピュータにより実現される方法。
  11. 前記スクロールしたコンテンツを表示することをさらに含み、前記スクロールしたコンテンツを表示することは、前記コンテンツの異なる部分を表示することを含む、請求項5に記載のコンピュータにより実現される方法。
  12. 前記電子デバイスに関する前記ユーザの注視方向に少なくとも部分的に基づいて、前記スクロールの速度を決定する、請求項11に記載のコンピュータにより実現される方法。
  13. 複数のゾーンと、速度関数とのうちの少なくとも1つに基づいて、前記速度を決定する、請求項12に記載のコンピュータにより実現される方法。
  14. 前記スクロールしたコンテンツは、前記ユーザの注視方向が画像またはメディアファイルに関係付けられている要素上に向いたときの、その画像またはメディアファイルの表示に対応する、請求項5に記載のコンピュータにより実現される方法。
  15. 前記ユーザによる前記コンテンツの視聴の間に行われる調整に少なくとも部分的に基づいて、前記ユーザに対するデフォルトのスクロール速度を調整する、請求項5に記載のコンピュータにより実現される方法。
  16. 前記ユーザは、前記表示要素の領域に特定の動作を割り当てることができ、前記ユーザは、関係付けられている領域を注視することによって、それらの特定の動作のうちの1つを起動することができる、請求項5に記載のコンピュータにより実現される方法。
  17. 前記コンテンツに対するデフォルトのスクロール速度は、前記コンテンツのタイプに少なくとも部分的に基づく、請求項5に記載のコンピュータにより実現される方法。
  18. 前記スクロールしたコンテンツは、コンテンツの異なるページを含み、コンテンツの新しいページの最初に関係付けられている領域に向かってユーザが前記注視方向を移動させることにさらに基づいて、前記スクロールしたコンテンツを表示する、請求項5に記載のコンピュータにより実現される方法。
  19. 電子デバイスにおいて、
    プロセッサと、
    表示要素と、
    少なくとも1つの画像取り込み要素と、
    1組の動作を行うために前記プロセッサによって実行されるように動作可能な命令を含むメモリデバイスとを具備し、
    前記メモリデバイスは、前記プロセッサが、
    前記電子デバイスの前記表示要素上にコンテンツを表示することと、
    前記電子デバイスの前記プロセッサを使用して、前記電子デバイスに関するデフォルトの視点に関係付けられているユーザの注視方向を決定することと、
    前記決定した注視方向が前記表示要素の中央部から実質的に離れるように移動することに少なくとも部分的に基づいて、前記表示要素上で表示コンテンツをスクロールする速度を制御することと、
    前記電子デバイスの前記プロセッサを使用して、前記ユーザのために、目標視点が前記表示要素の中央部から実質的に離れて移動されるかどうかを決定することと、
    少なくともある時間期間の間に前記ユーザの注視方向を前記目標視点に実質的に向けさせるために、前記表示コンテンツをスクロールする速度を調整ることとを可能にし、
    前記ユーザは、前記表示要素の中央部、または前記目標視点のうちの少なくとも1つから離れている注視方向における変化を通して、前記表示要素上の前記コンテンツの表示を調整することができる電子デバイス。
  20. 前記ユーザの注視方向を決定することは、
    前記電子デバイスの前記少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
    前記取り込んだ1つ以上の画像を解析して、前記ユーザの相対位置と前記ユーザの眼球についての情報とを決定することとを含む、請求項19に記載の電子デバイス。
  21. 前記少なくとも1つの画像取り込み要素は、カメラまたは赤外線検出器のうちの少なくとも1つを含む、請求項19に記載の電子デバイス。
  22. 前記命令は、実行されたときにさらに、前記電子デバイスに、
    取り込んだ1つ以上の画像を解析させて、ユーザの識別情報を認証させ、
    前記電子デバイスは、前記ユーザの識別情報に基づいて、前記コンテンツの表示を変更するように構成されている、請求項19に記載の電子デバイス。
  23. 電子デバイスを制御するためのプロセッサ実行可能命令を記憶する、非一時的なコンピュータ読み出し可能な記憶媒体において、
    電子デバイスの表示要素上にコンテンツを表示するためのプログラムコードと、
    前記電子デバイスのプロセッサを使用して、前記電子デバイスに関するユーザの注視方向を決定するためのプログラムコードと、
    前記決定した注視方向が前記表示要素の中央部から実質的に離れるように移動することに少なくとも部分的に基づいて、前記表示要素上で表示コンテンツをスクロールする速度を制御するためのプログラムコードと、
    前記電子デバイスの前記プロセッサを使用して、前記ユーザのために、目標視点が前記表示要素の中央部から実質的に離れて移動されるかどうかを決定するためのプログラムコードと、
    少なくともある時間期間の間に前記ユーザの注視方向を前記目標視点に実質的に向けさせるために、前記表示コンテンツをスクロールする速度を調整するためのプログラムコードとを含み、
    前記ユーザは、前記表示要素の中央部、または前記目標視点のうちの少なくとも1つから離れている注視方向における変化を通して、前記表示要素上の前記コンテンツの表示を調整することができる、非一時的なコンピュータ読み出し可能な記憶媒体。
  24. 前記ユーザの注視方向を決定することは、
    前記電子デバイスの少なくとも1つの画像取り込み要素を使用して、1つ以上の画像を取り込むことと、
    前記取り込んだ1つ以上の画像を解析して、前記ユーザの相対位置と前記ユーザの眼球の位置についての情報とを決定することとを含む、請求項23に記載の非一時的なコンピュータ読み出し可能な記憶媒体。
  25. 取り込んだ1つ以上の画像を解析して、ユーザの識別情報を認証するためのプログラムコードをさらに含み、前記電子デバイスは、前記ユーザの識別情報に基づいて、前記コンテンツの表示を変更するように構成されている、請求項23に記載の非一時的なコンピュータ読み出し可能な記憶媒体。
JP2014503946A 2011-04-08 2012-04-04 注視に基づくコンテンツディスプレイ Active JP6058626B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/083,303 US8643680B2 (en) 2011-04-08 2011-04-08 Gaze-based content display
US13/083,303 2011-04-08
PCT/US2012/032148 WO2012138744A1 (en) 2011-04-08 2012-04-04 Gaze-based content display

Publications (2)

Publication Number Publication Date
JP2014514658A JP2014514658A (ja) 2014-06-19
JP6058626B2 true JP6058626B2 (ja) 2017-01-18

Family

ID=46965763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014503946A Active JP6058626B2 (ja) 2011-04-08 2012-04-04 注視に基づくコンテンツディスプレイ

Country Status (5)

Country Link
US (1) US8643680B2 (ja)
EP (1) EP2695046A4 (ja)
JP (1) JP6058626B2 (ja)
CN (1) CN103703438B (ja)
WO (1) WO2012138744A1 (ja)

Families Citing this family (239)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
KR20130073979A (ko) * 2010-10-06 2013-07-03 미쓰비시덴키 가부시키가이샤 문자 정보 표시 장치 및 문자 정보 표시 방법
US8613075B2 (en) 2011-03-30 2013-12-17 Elwha Llc Selective item access provision in response to active item ascertainment upon device transfer
US8739275B2 (en) 2011-03-30 2014-05-27 Elwha Llc Marking one or more items in response to determining device transfer
US9153194B2 (en) 2011-03-30 2015-10-06 Elwha Llc Presentation format selection based at least on device transfer determination
US8726367B2 (en) * 2011-03-30 2014-05-13 Elwha Llc Highlighting in response to determining device transfer
US8863275B2 (en) 2011-03-30 2014-10-14 Elwha Llc Access restriction in response to determining device transfer
US8839411B2 (en) 2011-03-30 2014-09-16 Elwha Llc Providing particular level of access to one or more items in response to determining primary control of a computing device
US8918861B2 (en) 2011-03-30 2014-12-23 Elwha Llc Marking one or more items in response to determining device transfer
US9317111B2 (en) 2011-03-30 2016-04-19 Elwha, Llc Providing greater access to one or more items in response to verifying device transfer
US8745725B2 (en) * 2011-03-30 2014-06-03 Elwha Llc Highlighting in response to determining device transfer
US8713670B2 (en) 2011-03-30 2014-04-29 Elwha Llc Ascertaining presentation format based on device primary control determination
US8726366B2 (en) 2011-03-30 2014-05-13 Elwha Llc Ascertaining presentation format based on device primary control determination
US20120254735A1 (en) * 2011-03-30 2012-10-04 Elwha LLC, a limited liability company of the State of Delaware Presentation format selection based at least on device transfer determination
US8843346B2 (en) * 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
US20120293528A1 (en) * 2011-05-18 2012-11-22 Larsen Eric J Method and apparatus for rendering a paper representation on an electronic display
US20130033524A1 (en) * 2011-08-02 2013-02-07 Chin-Han Wang Method for performing display control in response to eye activities of a user, and associated apparatus
US9256285B2 (en) * 2011-08-19 2016-02-09 Thompson Licensing Sa Method for gaze-controlled text size control, and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
KR101891786B1 (ko) * 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US8994755B2 (en) * 2011-12-20 2015-03-31 Alcatel Lucent Servers, display devices, scrolling methods and methods of generating heatmaps
WO2013091245A1 (en) * 2011-12-23 2013-06-27 Thomson Licensing Computer device with power-consumption management and method for managing power-consumption of computer device
JP2013132371A (ja) * 2011-12-26 2013-07-08 Denso Corp 動作検出装置
TWI530788B (zh) * 2011-12-30 2016-04-21 富智康(香港)有限公司 使用電子裝置時緩解視覺疲勞的系統及方法
US9262780B2 (en) * 2012-01-09 2016-02-16 Google Inc. Method and apparatus for enabling real-time product and vendor identification
US9423994B2 (en) * 2012-02-22 2016-08-23 Citrix Systems, Inc. Hierarchical display
KR101180119B1 (ko) * 2012-02-23 2012-09-05 (주)올라웍스 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체
KR101919010B1 (ko) * 2012-03-08 2018-11-16 삼성전자주식회사 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스
JP5994328B2 (ja) 2012-03-29 2016-09-21 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN103377643B (zh) * 2012-04-26 2017-02-15 富泰华工业(深圳)有限公司 字体调整系统及方法
KR101850035B1 (ko) * 2012-05-02 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9471763B2 (en) * 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking
US9423870B2 (en) * 2012-05-08 2016-08-23 Google Inc. Input determination method
WO2013168173A1 (en) * 2012-05-11 2013-11-14 Umoove Services Ltd. Gaze-based automatic scrolling
US9148537B1 (en) * 2012-05-18 2015-09-29 hopTo Inc. Facial cues as commands
US9395826B1 (en) 2012-05-25 2016-07-19 hopTo Inc. System for and method of translating motion-based user input between a client device and an application host computer
US9317113B1 (en) 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
JP5783957B2 (ja) * 2012-06-22 2015-09-24 株式会社Nttドコモ 表示装置、表示方法及びプログラム
US9552067B2 (en) * 2012-06-22 2017-01-24 Apple Inc. Gesture interpretation in navigable zoom mode
JP6131540B2 (ja) * 2012-07-13 2017-05-24 富士通株式会社 タブレット端末、操作受付方法および操作受付プログラム
TWI470477B (zh) * 2012-08-29 2015-01-21 Utechzone Co Ltd 眼控溝通系統
US20140071159A1 (en) * 2012-09-13 2014-03-13 Ati Technologies, Ulc Method and Apparatus For Providing a User Interface For a File System
US9575960B1 (en) * 2012-09-17 2017-02-21 Amazon Technologies, Inc. Auditory enhancement using word analysis
KR101479471B1 (ko) * 2012-09-24 2015-01-13 네이버 주식회사 사용자의 시선에 기초하여 광고를 제공하는 방법 및 시스템
US20140092015A1 (en) * 2012-09-29 2014-04-03 Zhaohui Xing Method and apparatus for manipulating a graphical user interface using camera
US20150234457A1 (en) * 2012-10-15 2015-08-20 Umoove Services Ltd. System and method for content provision using gaze analysis
KR102095765B1 (ko) * 2012-10-19 2020-04-01 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102048897B1 (ko) * 2012-11-20 2019-11-26 삼성전자주식회사 백라이트 구동 시간 제어 방법 및 장치
US10025379B2 (en) 2012-12-06 2018-07-17 Google Llc Eye tracking wearable devices and methods for use
CN103190883B (zh) * 2012-12-20 2015-06-24 苏州触达信息技术有限公司 一种头戴式显示装置和图像调节方法
CN103902192A (zh) * 2012-12-28 2014-07-02 腾讯科技(北京)有限公司 人机交互操作的触发控制方法和装置
KR102062310B1 (ko) * 2013-01-04 2020-02-11 삼성전자주식회사 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법
KR20140091322A (ko) * 2013-01-11 2014-07-21 삼성전자주식회사 아이트래킹을 이용한 화면 디스플레이 방법 및 장치
WO2014111924A1 (en) * 2013-01-15 2014-07-24 Poow Innovation Ltd. Dynamic icons
US9829971B2 (en) * 2013-01-21 2017-11-28 Facebook, Inc. Systems and methods of eye tracking control
WO2014115387A1 (ja) * 2013-01-28 2014-07-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR102186103B1 (ko) * 2013-02-22 2020-12-03 삼성전자주식회사 상황인지 기반의 화면 스크롤 방법, 저장 매체 및 단말
US9842571B2 (en) * 2013-02-22 2017-12-12 Samsung Electronics Co., Ltd. Context awareness-based screen scroll method, machine-readable storage medium and terminal therefor
DE102013003047A1 (de) * 2013-02-22 2014-08-28 Audi Ag Verfahren und System zum blickrichtungsabhängigen Steuern einer Funktionseinheit
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US20140247208A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
ES2731560T3 (es) 2013-03-01 2019-11-15 Tobii Ab Interacción de mirada con deformación retardada
US9256784B1 (en) * 2013-03-11 2016-02-09 Amazon Technologies, Inc. Eye event detection
KR102281233B1 (ko) * 2013-03-14 2021-07-23 삼성전자 주식회사 화면 제어 방법 및 장치
US11747895B2 (en) * 2013-03-15 2023-09-05 Intuitive Surgical Operations, Inc. Robotic system providing user selectable actions associated with gaze tracking
KR102081930B1 (ko) * 2013-03-21 2020-02-26 엘지전자 주식회사 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법
JP6070833B2 (ja) * 2013-05-08 2017-02-01 富士通株式会社 入力装置及び入力プログラム
KR102111457B1 (ko) * 2013-05-15 2020-05-15 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
DE102013210588A1 (de) * 2013-06-07 2014-12-11 Bayerische Motoren Werke Aktiengesellschaft Anzeigensystem mit Datenbrille
KR102098277B1 (ko) * 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP5811228B2 (ja) * 2013-06-24 2015-11-11 大日本印刷株式会社 画像処理装置、表示装置並びに画像処理方法及び画像処理用プログラム
US8988344B2 (en) * 2013-06-25 2015-03-24 Microsoft Technology Licensing, Llc User interface navigation
US20150009238A1 (en) * 2013-07-03 2015-01-08 Nvidia Corporation Method for zooming into and out of an image shown on a display
US20150009118A1 (en) * 2013-07-03 2015-01-08 Nvidia Corporation Intelligent page turner and scroller
CN103345305B (zh) * 2013-07-22 2016-08-31 百度在线网络技术(北京)有限公司 用于移动终端输入法的候选词控制方法、装置和移动终端
US20150035952A1 (en) * 2013-08-05 2015-02-05 Samsung Electronics Co., Ltd. Photographing apparatus, display apparatus, photographing method, and computer readable recording medium
KR20150028374A (ko) * 2013-09-03 2015-03-16 삼성전자주식회사 이미지 변환 방법 및 장치
US10026095B2 (en) * 2013-09-10 2018-07-17 Chian Chiu Li Systems and methods for obtaining and utilizing user reaction and feedback
US9652034B2 (en) 2013-09-11 2017-05-16 Shenzhen Huiding Technology Co., Ltd. User interface based on optical sensing and tracking of user's eye movement and position
JP6115418B2 (ja) * 2013-09-11 2017-04-19 富士通株式会社 情報処理装置、方法及びプログラム
CN104464579A (zh) * 2013-09-12 2015-03-25 中兴通讯股份有限公司 数据显示方法、装置及终端、显示控制方法及装置
JP6152758B2 (ja) 2013-09-13 2017-06-28 富士通株式会社 情報処理装置、方法及びプログラム
JP6127853B2 (ja) * 2013-09-13 2017-05-17 富士通株式会社 情報処理装置、方法及びプログラム
US20150082145A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
JP2015087824A (ja) * 2013-10-28 2015-05-07 オムロン株式会社 画面操作装置および画面操作方法
CN106132284B (zh) * 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪
US20150135133A1 (en) * 2013-11-11 2015-05-14 Lenovo (Singapore) Pte. Ltd. Adjustable smooth scrolling
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
CN106663183B (zh) * 2013-11-27 2020-04-24 深圳市汇顶科技股份有限公司 眼睛跟踪及用户反应探测
JP6183188B2 (ja) * 2013-12-02 2017-08-23 富士通株式会社 表示装置,プログラム及び表示方法
JP2015114970A (ja) * 2013-12-13 2015-06-22 ソニー株式会社 情報処理装置および情報処理方法
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
US10432781B1 (en) 2016-03-22 2019-10-01 Massachusetts Mutual Life Insurance Company Systems and methods for presenting content based on user behavior
US10178222B1 (en) 2016-03-22 2019-01-08 Massachusetts Mutual Life Insurance Company Systems and methods for presenting content based on user behavior
US10986223B1 (en) 2013-12-23 2021-04-20 Massachusetts Mutual Life Insurance Systems and methods for presenting content based on user behavior
US10051113B1 (en) 2016-03-22 2018-08-14 Massachusetts Mutual Life Insurance Company Systems and methods for presenting content based on user behavior
CN104765442B (zh) * 2014-01-08 2018-04-20 腾讯科技(深圳)有限公司 自动浏览方法及自动浏览装置
JP2015133088A (ja) * 2014-01-16 2015-07-23 カシオ計算機株式会社 Guiシステム、表示処理装置、入力処理装置及びプログラム
US9311718B2 (en) * 2014-01-23 2016-04-12 Microsoft Technology Licensing, Llc Automated content scrolling
FR3018119B1 (fr) * 2014-02-28 2017-07-07 Thales Sa Systeme de visualisation de casque comportant des moyens d'affichage et de gestion de documentation
CN103853330B (zh) * 2014-03-05 2017-12-01 努比亚技术有限公司 基于眼睛控制显示层切换的方法和移动终端
CN103995822A (zh) * 2014-03-19 2014-08-20 宇龙计算机通信科技(深圳)有限公司 一种终端及信息搜索方法
EP2924540B1 (de) * 2014-03-27 2019-04-24 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und System zum Betreiben einer Anzeigevorrichtung
US9933849B2 (en) * 2014-03-28 2018-04-03 Change Healthcare Llc Method and computing device for window leveling based upon a gaze location
US9462230B1 (en) 2014-03-31 2016-10-04 Amazon Technologies Catch-up video buffering
CN104978043B (zh) * 2014-04-04 2021-07-09 北京三星通信技术研究有限公司 终端设备的键盘、终端设备的输入方法和终端设备
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US10409366B2 (en) * 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US10424103B2 (en) 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
JP2017526078A (ja) 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US10095850B2 (en) * 2014-05-19 2018-10-09 Kadenze, Inc. User identity authentication techniques for on-line content or access
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
WO2015186069A2 (en) * 2014-06-03 2015-12-10 Realitygate (Pty) Ltd Display and interaction method in a user interface
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9857869B1 (en) * 2014-06-17 2018-01-02 Amazon Technologies, Inc. Data optimization
US9990043B2 (en) * 2014-07-09 2018-06-05 Atheer Labs, Inc. Gesture recognition systems and devices for low and no light conditions
US9846522B2 (en) * 2014-07-23 2017-12-19 Microsoft Technology Licensing, Llc Alignable user interface
US9746901B2 (en) 2014-07-31 2017-08-29 Google Technology Holdings LLC User interface adaptation based on detected user location
CN105320422B (zh) * 2014-08-04 2018-11-06 腾讯科技(深圳)有限公司 一种信息数据显示方法和装置
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
US10878446B2 (en) * 2014-08-18 2020-12-29 Chian Chiu Li Systems and methods for obtaining and utilizing user reaction and feedback
US10606920B2 (en) * 2014-08-28 2020-03-31 Avaya Inc. Eye control of a text stream
JP6038089B2 (ja) * 2014-09-22 2016-12-07 京セラドキュメントソリューションズ株式会社 文書閲覧装置、文書閲覧装置の制御方法
CN104267812B (zh) * 2014-09-22 2017-08-29 联想(北京)有限公司 一种信息处理方法及电子设备
CN105573478A (zh) * 2014-10-13 2016-05-11 北京三星通信技术研究有限公司 便携式设备的输入控制方法和装置
EP3009918A1 (en) * 2014-10-13 2016-04-20 Thomson Licensing Method for controlling the displaying of text for aiding reading on a display device, and apparatus adapted for carrying out the method and computer readable storage medium
WO2016058847A1 (en) * 2014-10-13 2016-04-21 Thomson Licensing Method for controlling the displaying of text for aiding reading on a display device, and apparatus adapted for carrying out the method, computer program, and computer readable storage medium
CN104360787A (zh) * 2014-10-17 2015-02-18 联想(北京)有限公司 一种显示方法及电子设备
US10645218B2 (en) * 2014-10-31 2020-05-05 Avaya Inc. Contact center interactive text stream wait treatments
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
KR20160055555A (ko) * 2014-11-10 2016-05-18 삼성디스플레이 주식회사 표시 장치 및 이의 표시 제어 방법 및 장치
US9535497B2 (en) 2014-11-20 2017-01-03 Lenovo (Singapore) Pte. Ltd. Presentation of data on an at least partially transparent display based on user focus
CN104464593B (zh) * 2014-11-21 2017-09-26 京东方科技集团股份有限公司 用于显示装置的驱动方法、显示画面更新方法及装置
CN104503676A (zh) * 2014-12-15 2015-04-08 合肥联宝信息技术有限公司 一种实现移动终端变速显示的方法及装置
US9529432B2 (en) * 2014-12-22 2016-12-27 Rakuten Kobo, Inc. Progressive page transition feature for rendering e-books on computing devices
JP6396202B2 (ja) * 2014-12-24 2018-09-26 京セラ株式会社 電子機器及び表示制御方法
US11310337B2 (en) * 2014-12-30 2022-04-19 Avaya Inc. Interactive contact center menu traversal via text stream interaction
CN105320261A (zh) * 2015-01-07 2016-02-10 维沃移动通信有限公司 移动终端的控制方法及移动终端
US20160210269A1 (en) * 2015-01-16 2016-07-21 Kobo Incorporated Content display synchronized for tracked e-reading progress
KR101685105B1 (ko) * 2015-01-27 2016-12-20 네이버 주식회사 만화 데이터 표시 방법 및 만화 데이터 표시 장치
US10242379B2 (en) * 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
WO2016137405A1 (en) * 2015-02-27 2016-09-01 Meditech Solution Company Limited A communicative system by monitoring patients' eye blinking
US20160259405A1 (en) * 2015-03-03 2016-09-08 Microsoft Technology Licensing, Llc Eye Gaze for Automatic Paging
US10002449B2 (en) * 2015-04-16 2018-06-19 Sap Se Responsive and adaptive chart controls
CN104881227A (zh) * 2015-05-04 2015-09-02 联想(北京)有限公司 一种显示方法及电子设备
CN104866100B (zh) 2015-05-27 2018-11-23 京东方科技集团股份有限公司 眼控装置及其眼控方法和眼控系统
DE102015210430A1 (de) * 2015-06-08 2016-12-08 Robert Bosch Gmbh Verfahren zum Erkennen eines Sprachkontexts für eine Sprachsteuerung, Verfahren zum Ermitteln eines Sprachsteuersignals für eine Sprachsteuerung und Vorrichtung zum Ausführen der Verfahren
CN104954574A (zh) * 2015-06-23 2015-09-30 上海卓易科技股份有限公司 一种自动操作移动终端的方法及移动终端
US9829976B2 (en) * 2015-08-07 2017-11-28 Tobii Ab Gaze direction mapping
US10139903B2 (en) 2015-09-25 2018-11-27 International Business Machines Corporation Adjustment of reticle display based on biometric information
US10825058B1 (en) * 2015-10-02 2020-11-03 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10871821B1 (en) 2015-10-02 2020-12-22 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10970895B1 (en) * 2015-11-02 2021-04-06 Massachusetts Mutual Life Insurance Company Intelligent and context aware reading systems
US10853978B1 (en) * 2015-11-02 2020-12-01 Massachusetts Mutual Life Insurance Company Intelligent and context aware reading systems
CN106843709B (zh) 2015-12-04 2020-04-14 阿里巴巴集团控股有限公司 根据实时信息显示展现对象的方法和装置
US9799161B2 (en) * 2015-12-11 2017-10-24 Igt Canada Solutions Ulc Enhanced electronic gaming machine with gaze-aware 3D avatar
US9691219B1 (en) * 2015-12-11 2017-06-27 Igt Canada Solutions Ulc Enhanced electronic gaming machine with electronic maze and eye gaze display
US9773372B2 (en) * 2015-12-11 2017-09-26 Igt Canada Solutions Ulc Enhanced electronic gaming machine with dynamic gaze display
US10489043B2 (en) 2015-12-15 2019-11-26 International Business Machines Corporation Cognitive graphical control element
US10296088B2 (en) * 2016-01-26 2019-05-21 Futurewei Technologies, Inc. Haptic correlated graphic effects
KR102534963B1 (ko) * 2016-02-23 2023-05-23 삼성전자주식회사 전자 장치 및 그 제어 방법
US9990035B2 (en) 2016-03-14 2018-06-05 Robert L. Richmond Image changes based on viewer's gaze
JP2017167985A (ja) * 2016-03-17 2017-09-21 富士通株式会社 通知制御プログラム、通知制御方法及び通知制御装置
US10592586B1 (en) 2016-03-22 2020-03-17 Massachusetts Mutual Life Insurance Company Systems and methods for improving workflow efficiency and for electronic record population
US10579708B1 (en) 2016-03-22 2020-03-03 Massachusetts Mutual Life Insurance Company Systems and methods for improving workflow efficiency and for electronic record population utilizing intelligent input systems
US10360254B1 (en) 2016-03-24 2019-07-23 Massachusetts Mutual Life Insurance Company Intelligent and context aware reading systems
US10306311B1 (en) * 2016-03-24 2019-05-28 Massachusetts Mutual Life Insurance Company Intelligent and context aware reading systems
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10394316B2 (en) * 2016-04-07 2019-08-27 Hand Held Products, Inc. Multiple display modes on a mobile device
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10140957B1 (en) * 2016-06-28 2018-11-27 Amazon Technologies, Inc. Controlling content output features to optimize content consumption
JP2018036476A (ja) * 2016-08-31 2018-03-08 アイシン・エィ・ダブリュ株式会社 スクロール制御システムおよびスクロール制御プログラム
JP6698216B2 (ja) * 2016-09-23 2020-05-27 アップル インコーポレイテッドApple Inc. アバターの作成及び編集に関する米国特許商標局への特許出願
JP2018054747A (ja) * 2016-09-27 2018-04-05 富士ゼロックス株式会社 画像表示装置、画像形成装置、及びプログラム
CN106484237A (zh) * 2016-10-14 2017-03-08 网易(杭州)网络有限公司 用于虚拟现实显示的方法、装置及虚拟现实设备
EP3316117A1 (en) * 2016-10-31 2018-05-02 Nokia Technologies OY Controlling content displayed in a display
WO2018117753A1 (en) * 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic device and method of controlling the same
CN109074211B (zh) * 2017-03-29 2021-08-31 荣耀终端有限公司 调节界面滚动速度的方法及相关设备
US10807000B2 (en) 2017-08-15 2020-10-20 Igt Concurrent gaming with gaze detection
US11351453B2 (en) * 2017-09-12 2022-06-07 Sony Interactive Entertainment LLC Attention-based AI determination of player choices
US10593156B2 (en) 2017-09-20 2020-03-17 Igt Systems and methods for gaming drop box management
US10437328B2 (en) 2017-09-27 2019-10-08 Igt Gaze detection using secondary input
US10512839B2 (en) 2017-09-28 2019-12-24 Igt Interacting with three-dimensional game elements using gaze detection
US10561928B2 (en) 2017-09-29 2020-02-18 Igt Using gaze detection to change timing and behavior
US10896573B2 (en) 2017-09-29 2021-01-19 Igt Decomposition of displayed elements using gaze detection
FR3072196B1 (fr) * 2017-10-11 2022-11-11 Laurent Tucherer Procede de lecture anti fatigue sur ecran portable
WO2019101841A1 (en) * 2017-11-22 2019-05-31 Movie Book S.R.L. Device and method for reading digital texts combined with audiovisual effects
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
CN108363480B (zh) * 2018-02-12 2021-04-02 上海摩软通讯技术有限公司 移动终端的显示控制方法及系统
JP7282810B2 (ja) 2018-02-22 2023-05-29 イノデム ニューロサイエンシズ 視線追跡方法およびシステム
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10356387B1 (en) * 2018-07-26 2019-07-16 Telefonaktiebolaget Lm Ericsson (Publ) Bookmarking system and method in 360° immersive video based on gaze vector information
CN109324686B (zh) * 2018-08-13 2022-02-11 中国航天员科研训练中心 一种基于视线追踪的滑块操作方法
CN109343765B (zh) * 2018-08-16 2021-03-23 咪咕数字传媒有限公司 电子书的翻页方法、阅读设备及存储介质
JP2020052650A (ja) * 2018-09-26 2020-04-02 いすゞ自動車株式会社 表示制御装置及び表示制御方法
US10833945B2 (en) * 2018-11-13 2020-11-10 International Business Machines Corporation Managing downloading of content
EP3785102A1 (en) * 2018-12-04 2021-03-03 Google LLC Context aware skim-read friendly text view
US10921883B2 (en) 2019-01-17 2021-02-16 International Business Machines Corporation Eye tracking for management of mobile device
SE543121C2 (en) * 2019-02-04 2020-10-13 Tobii Ab Method and system for determining a current gaze direction
CN110162170A (zh) * 2019-04-04 2019-08-23 北京七鑫易维信息技术有限公司 基于终端可扩展区域的控制方法及装置
KR20190082688A (ko) * 2019-06-20 2019-07-10 엘지전자 주식회사 시선 추적을 이용한 디스플레이 제어방법 및 디스플레이 제어장치
CN110572704A (zh) * 2019-09-16 2019-12-13 腾讯科技(深圳)有限公司 一种控制弹幕播放速度的方法、装置、设备及介质
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
CN110928407B (zh) * 2019-10-30 2023-06-09 维沃移动通信有限公司 信息显示方法及装置
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
CN111147549B (zh) * 2019-12-06 2023-05-12 珠海格力电器股份有限公司 一种终端桌面内容的分享方法、装置、设备及存储介质
CN111638835B (zh) * 2020-04-28 2022-03-01 维沃移动通信有限公司 笔记的生成方法及电子设备
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
CN111694434B (zh) * 2020-06-15 2023-06-30 掌阅科技股份有限公司 电子书评论信息的交互展示方法、电子设备及存储介质
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
CN114296616A (zh) * 2020-09-23 2022-04-08 华为终端有限公司 界面滚动的方法和电子设备
CN112051951A (zh) * 2020-09-25 2020-12-08 北京字节跳动网络技术有限公司 一种媒体内容展示方法、媒体内容的展示确定方法及装置
US11747896B2 (en) 2020-10-20 2023-09-05 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11609629B2 (en) * 2020-10-20 2023-03-21 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11392198B2 (en) 2020-10-20 2022-07-19 ROVl GUIDES, INC. Methods and systems of extended reality environment interaction based on eye motions
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11775060B2 (en) 2021-02-16 2023-10-03 Athena Accessible Technology, Inc. Systems and methods for hands-free scrolling
US11422836B1 (en) * 2021-05-07 2022-08-23 Avaya Management L.P. User guidance from gaze information during a communication session while viewing a webpage
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
WO2023074875A1 (ja) * 2021-10-29 2023-05-04 株式会社Nttドコモ 仮想コンテンツ提供装置
US20240112383A1 (en) * 2022-10-04 2024-04-04 Snap Inc. Generating user interfaces in augmented reality environments
CN116909439B (zh) * 2023-09-13 2024-03-22 荣耀终端有限公司 电子设备及其交互方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JPH1185452A (ja) * 1997-09-02 1999-03-30 Sanyo Electric Co Ltd スクロール制御装置
WO2000054134A1 (de) * 1999-03-09 2000-09-14 Siemens Aktiengesellschaft Eingabe-/ausgabevorrichtung für ein benutzerendgerät
JP3620583B2 (ja) * 2000-09-07 2005-02-16 日本電気株式会社 自動スクロール制御装置及び自動スクロール制御システム
US7091928B2 (en) * 2001-03-02 2006-08-15 Rajasingham Arjuna Indraeswara Intelligent eye
US6886137B2 (en) * 2001-05-29 2005-04-26 International Business Machines Corporation Eye gaze control of dynamic information presentation
ES2568506T3 (es) * 2004-06-18 2016-04-29 Tobii Ab Control ocular de aparato computador
US20060066567A1 (en) * 2004-09-29 2006-03-30 Scharenbroch Gregory K System and method of controlling scrolling text display
WO2006100645A2 (en) * 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
JP4411387B2 (ja) * 2007-08-07 2010-02-10 学校法人 大阪電気通信大学 動体検出装置、動体検出方法、ポインティングデバイス、コンピュータプログラム及び記憶媒体
US20090196460A1 (en) * 2008-01-17 2009-08-06 Thomas Jakobs Eye tracking system and method
JP2010250789A (ja) * 2008-06-10 2010-11-04 Akira Tomono カメラ付き表示装置
CN102112943A (zh) * 2008-08-07 2011-06-29 皇家飞利浦电子股份有限公司 确定用户头部运动/注视关系的方法和系统以及交互式显示系统
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US20100182232A1 (en) * 2009-01-22 2010-07-22 Alcatel-Lucent Usa Inc. Electronic Data Input System
US9495589B2 (en) * 2009-01-26 2016-11-15 Tobii Ab Detection of gaze point assisted by optical reference signal
TWI398796B (zh) * 2009-03-27 2013-06-11 Utechzone Co Ltd Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
CN101943982B (zh) * 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作

Also Published As

Publication number Publication date
WO2012138744A1 (en) 2012-10-11
JP2014514658A (ja) 2014-06-19
CN103703438B (zh) 2018-10-16
EP2695046A1 (en) 2014-02-12
EP2695046A4 (en) 2014-12-10
US8643680B2 (en) 2014-02-04
CN103703438A (zh) 2014-04-02
US20120256967A1 (en) 2012-10-11

Similar Documents

Publication Publication Date Title
JP6058626B2 (ja) 注視に基づくコンテンツディスプレイ
KR101312227B1 (ko) 입력 수단으로서의 움직임 인식
JP6542324B2 (ja) 注視決定とデバイス入力との使用
US20180348988A1 (en) Approaches for three-dimensional object display
US9280652B1 (en) Secure device unlock with gaze calibration
JP6129879B2 (ja) 多次元入力のためのナビゲーション手法
US10139898B2 (en) Distracted browsing modes
US9740297B2 (en) Motion-based character selection
US9483113B1 (en) Providing user input to a computing device with an eye closure
US9798443B1 (en) Approaches for seamlessly launching applications
US9378581B2 (en) Approaches for highlighting active interface elements
KR101919009B1 (ko) 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
US9342143B1 (en) Determining display orientations for portable devices
US10168812B1 (en) Reducing inadvertent actions on a computing device
US9201585B1 (en) User interface navigation gestures
US20160252968A1 (en) Interface elements for managing gesture control
US9110541B1 (en) Interface selection approaches for multi-dimensional input
US9665249B1 (en) Approaches for controlling a computing device based on head movement
US10082936B1 (en) Handedness determinations for electronic devices
US9524036B1 (en) Motions for displaying additional content
US10585485B1 (en) Controlling content zoom level based on user head movement
US9507429B1 (en) Obscure cameras as input
US9817566B1 (en) Approaches to managing device functionality

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161207

R150 Certificate of patent or registration of utility model

Ref document number: 6058626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250