JP5977808B2 - 動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供すること - Google Patents

動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供すること Download PDF

Info

Publication number
JP5977808B2
JP5977808B2 JP2014246586A JP2014246586A JP5977808B2 JP 5977808 B2 JP5977808 B2 JP 5977808B2 JP 2014246586 A JP2014246586 A JP 2014246586A JP 2014246586 A JP2014246586 A JP 2014246586A JP 5977808 B2 JP5977808 B2 JP 5977808B2
Authority
JP
Japan
Prior art keywords
user
biometric data
attention
module
computer interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014246586A
Other languages
English (en)
Other versions
JP2015122064A (ja
Inventor
フェン シン
フェン シン
ヒルバーガー ポール
ヒルバーガー ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of JP2015122064A publication Critical patent/JP2015122064A/ja
Application granted granted Critical
Publication of JP5977808B2 publication Critical patent/JP5977808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本明細書で開示される主題は、動作に関するバイオメトリックデータの運動学解析に関し、より詳細には、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図をリアルタイムで特定する方法、システム、および装置に関する。
コンピュータインターフェイスを見ているユーザは、現在のブラウジング位置を表すカーソルを必ずしも有するわけではない。例えば、電子書籍を読んでいるユーザは、目を離した後でコンピュータインターフェイスに戻る時に、最後に読んだ語を捜し出さなければならない。
加えて、複数のウィンドウやディスプレイを使用する環境で作業を行う際に、ユーザは各ウィンドウまたはディスプレイのどこで作業をやめたのかを思い出すのに苦労する場合がある。ユーザがウィンドウまたはディスプレイの直近のブラウジング位置を特定する際に、この苦労によって生産性が失われる。異なるウィンドウやディスプレイ間の切り替えに伴うオーバーヘッド時間は数秒かかることがあり、このような調整時間は、結果的に1日の労働時間の間に累積していく可能性がある。
本発明は、上記に鑑みてなされたものであり、直近のブラウジング位置の視覚的な手がかりを提供することを目的とする。
動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する装置が開示される。動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する装置は、動作に関するバイオメトリックデータを受信するバイオメトリックデータモジュール、ユーザの注意の逸れを検出する判断モジュール、および直近の既知のブラウジング位置を表す視覚的な手がかりを提供する位置の手がかりモジュールを有する。また、方法およびコンピュータプログラムは、装置のこれらの機能を実行する。
添付図面に示した具体的な実施形態を参照しつつ、簡潔に上述した実施形態をより詳細に説明する。これらの図面はいくつかの実施形態を示すものに過ぎず、本発明の範囲を限定するものと解釈されるべきではないと理解すべきであり、添付図面を用いてさらに具体的かつ詳細に、本発明の実施形態を説明する。
図1は、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図をリアルタイムで検出するシステムの一実施形態を示す概略ブロック図である。 図2は、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図をリアルタイムで検出する装置の一実施形態を示す概略ブロック図である。 図3は、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図をリアルタイムで検出する装置の別の実施形態を示す概略ブロック図である。 図4−Aは、動作に関するバイオメトリックデータの運動学解析に基づいたユーザの意図のリアルタイムでの検出の一実施形態を示す図である。 図4−Bは、動作に関するバイオメトリックデータの運動学解析に基づいたユーザの意図のリアルタイムでの検出の別の実施形態を示す図である。 図5は、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図をリアルタイムで検出する方法の一実施形態を示す概略フローチャート図である。 図6は、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図をリアルタイムで検出する方法の別の実施形態を示す概略フローチャート図である。 図7は、動作値に基づきユーザの意図を解釈する方法の一実施形態を示す概略フローチャート図である。 図8は、動作に関するバイオメトリックデータに基づきユーザの注意の逸れを特定する方法の一実施形態を示す概略フローチャート図である。 図9は、動作に関するバイオメトリックデータに基づき短距離の動きと長距離の動きを区別する方法の一実施形態を示す概略フローチャート図である。 図10は、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する装置の一実施形態を示す概略ブロック図である。 図11は、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する装置の別の実施形態を示す概略ブロック図である。 図12−Aは、動作に関するバイオメトリックデータを使用した直近の既知のブラウジング位置の手がかりの提供の一実施形態を示す図である。 図12−Bは、図12−Aの実施形態に係る動作に関するバイオメトリックデータを使用した直近の既知のブラウジング位置の手がかりの提供の別の図を示す図である。 図12−Cは、図12−Aの実施形態に係る動作に関するバイオメトリックデータを使用した直近の既知のブラウジング位置の手がかりの提供の別の図を示す図である。 図12−Dは、図12−Aの実施形態に係る動作に関するバイオメトリックデータを使用した直近の既知のブラウジング位置の手がかりの提供の別の図を示す図である。 図13は、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する方法の一実施形態を示す概略フローチャート図である。 図14は、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する方法の別の実施形態を示す概略フローチャート図である。 図15は、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する方法の別の実施形態を示す概略フローチャート図である。
実施の形態の態様は、システム、方法、またはプログラムとして実行できることは、当業者にとって理解できることである。従って、実施の形態は、全体として、ハードウェア、ソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)、または、ソフトウェアとハードウェアを組み合わせによって実行でき、これらはほとんどの場合、本明細書で「回路(circuit)」、「モジュール(module)」、または「システム(system)」と称する。さらに、実施の形態は、以下、コードと呼ばれる、マシン可読コード(machine readable code)、コンピュータ可読コード(computer readable code)、および/またはプログラムコード(program code)のうち少なくともいずれかを格納する、1つ以上のコンピュータ可読ストレージデバイスにおいて具体化させたプログラム製品の形を取ってもよい。ストレージデバイスは、有形(tangible)、非一時的(non-transitory)、および非送信型(non-transmission)のうち少なくともいずれかであってもよい。ストレージデバイスは、信号を具体化しなくてもよい。ある実施形態では、ストレージデバイスは、コードにアクセスするために信号を用いるのみである。
この明細書で説明される機能ユニットの多くはモジュールと名付けられており、そのことにより、それらの実装の独立性がよりいっそうはっきりとする。例えば、モジュールは、カスタムVLSI回路またはゲートアレイ、ロジックチップやトランジスタ等の既製の半導体、または他のディスクリート(個別)部品を備えるハードウェア回路として実装されてもよい。モジュールはまた、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)、プログラマブルアレイロジック、プログラマブルロジックデバイス等のプログラマブルハードウェアデバイスに実装されてもよい。
モジュールはまた、様々な種類のプロセッサによる実行のため、コードとソフトウェアのうち少なくとも一方に実装されてもよい。特定のコードモジュールは、例えば、実行可能なコードの1つ以上の物理ブロックまたは論理ブロックを備えてもよく、そのコードは、例えば、オブジェクト、プロシージャ、またはファンクションとして構成され得るものである。なお、特定のモジュールの実行ファイルは、物理的に一緒に位置づけされる必要はないが、異なる場所に格納された多種多様な命令を備えてもよく、それらの命令は、論理的に結合された時にモジュールを構成し、モジュールの定められた目的を達成するものである。
実際には、コードモジュールは、単一の命令または多数の命令であってもよく、いくつかの異なるコードセグメントにわたり、異なるプログラム間で、いくつかのメモリデバイスに分散されてもよい。同様に、オペレーショナルデータは、本明細書で、モジュールの範囲内で識別され、例示されてもよく、また、任意の適切な形で具体化され、任意の適切な種類のデータ構造内に構築されてもよい。オペレーショナルデータは、単一のデータセットとして収集されてもよく、または異なるコンピュータ可読ストレージデバイス全体を含む異なる場所全体にわたり分散されてもよい。モジュールまたはモジュールの部分がソフトウェアに実装される場合、ソフトウェア部分は、1つ以上のコンピュータ可読ストレージデバイスに格納される。
1つ以上のコンピュータ可読媒体の任意の組み合わせが利用されてもよい。コンピュータ可読媒体は、コンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は、コードを格納するストレージデバイスであってもよい。ストレージデバイスは、例えば、電子的、磁気的、光学的、電磁気的、赤外線、ホログラフィック、マイクロメカニカル、もしくは半導体のシステム、装置、またはデバイス、あるいは前述のいずれかの適切な組み合わせであってもよいが、これらに限定されるわけではない。
ストレージデバイスのより具体的な例(包括的ではないリスト)には、1本以上の電線を有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(Random Access Memory:RAM)、読み取り専用メモリ(Read-Only Memory:ROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM(Erasable Programmable Read-Only Memory)またはフラッシュメモリ)、可搬なCD−ROM(Compact Disc Read-Only Memory)、光学ストレージデバイス、磁気ストレージデバイス、または前述のいずれかの適切な組み合わせが含まれるであろう。本明細書に照らして、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスにより、またはそれと関連して使用されるプログラムを含むまたは格納することのできる任意の有形媒体であってもよい。
実施形態のオペレーションを実行するコードは、Java(登録商標)、Smalltalk、C++等のオブジェクト指向プログラミング言語と、「C」プログラミング言語や類似するプログラミング言語のような従来の手続き型プログラミング言語とを含む、1つ以上のプログラミング言語の任意の組み合わせで書かれていてもよい。コードは、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、独立型のソフトウェアパッケージとして、ユーザのコンピュータ上で部分的かつリモートコンピュータ上で部分的に、またはリモートコンピュータもしくはサーバ上で完全に、実行してもよい。後半のパターンの場合、リモートコンピュータは、ローカルエリアネットワーク(Local Area Network:LAN)や広域ネットワーク(Wide Area Network:WAN)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続されていてもよく、または接続は、(例えば、インターネットサービスプロバイダを使用してインターネットを通じて)外部のコンピュータになされてもよい。
この明細書全体にわたる「一実施形態」、「実施形態」、または類似する言い回しへの言及は、実施の形態に関連して説明される特別な機能、構造、または特徴が少なくとも1つの実施の形態に含まれることを意味する。つまり、この明細書全体にわたる、表現「一実施の形態では」、「実施の形態では」、および類似する言い回しの出現は、必ずしもそうとは限らないが、全て同じ実施の形態を指してもよく、また、別途明記されない限り、「1つ以上だが全てではない実施の形態」を意味してもよい。用語「含む」、「備える」、「有する」、またはこれらの用語のバリエーションは、別途明記されない限り、「を含むが、これらに限定されるわけではない」ということを意味する。列挙される記載事項は、別途明記されない限り、任意の、または全ての事項が相互に排他的であることを意味するものではない。用語「1つの(”a”および”an”)」および「その(the)」もまた、別途明記されない限り、「1つ以上の」を指す。
さらに、実施の形態の説明される機能、構造、または特徴は、任意の適切な方法で組み合わされてもよい。以下の説明においては、実施の形態が完全に理解されるために、プログラミング、ソフトウェアモジュール、ユーザ選択、ネットワークトランザクション、データベースクエリ、データベース構造、ハードウェアモジュール、ハードウェア回路、ハードウェアチップ等の例といった具体的な詳細が多数提示される。当業者は、1つ以上のそれら具体的な詳細がなくても、または他の方法、構成要素、材料等を用いて、実施の形態を実施できるということを理解すべきである。その他の例では、実施の形態の態様を不明瞭にすることを避けるため、既知の構造、材料、およびオペレーションは図示や詳細な説明を省略する。
実施の形態の態様は、実施形態に係る方法、装置、システム、およびプログラム製品の概略フローチャート図および/または概略ブロック図を参照して以下に説明される。それら概略フローチャート図および/または概略ブロック図の各ブロック、ならびにそれら概略フローチャート図および/または概略ブロック図におけるブロックの組み合わせは、コードによって実行可能であるということを理解すべきである。汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサを経由して実行する命令が、それら概略フローチャート図および/または概略ブロック図の1つまたは複数のブロックに明記された機能(function)/動作(act)を実行する方法をもたらすように、これらのコードは、マシンを製造するために、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサに提供されてもよい。
ストレージデバイスに格納された命令が、それら概略フローチャート図および/または概略ブロック図の1つまたは複数のブロックに明記された機能/動作を実行する命令を含む製品を生成するように、コードはまた、コンピュータ、他のプログラマブルデータ処理装置、または特有の方法で機能する他のデバイスに命令を出すことができるストレージデバイスに格納されてもよい。
コンピュータ、または他のプログラマブルデータ処理装置上で実行するコードが、これらフローチャートやブロック図の1つまたは複数のブロックに明記された機能/動作を実行するプロセスを提供するように、コードはまた、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行される一連のオペレーションステップを生成し、コンピュータにより実施されるプロセスを実現するために、コンピュータ、他のプログラマブル装置、または他のデバイスにロードされてもよい。
図面の概略フローチャート図および/または概略ブロック図は、様々な実施の形態に係る装置、システム、方法、およびプログラム製品を実現する、考えられるアーキテクチャ、機能性、およびオペレーションを示す。この点において、概略フローチャート図や概略ブロック図における各ブロックは、特定の論理機能を実行するコードの1つ以上の実行可能な命令を備えるモジュール、セグメント、またはコード部分を表してもよい。
実行の選択肢によっては、ブロックに記入されている機能は、図面に記入された順序とは無関係に出てきてもよい、ということにも留意すべきである。例えば、連続して示される2つのブロックは、実際には、関係した機能性次第で、ほぼ同時に実行されてもよく、またはそれらのブロックは、逆の順序で実行されてもよい。他のステップおよび方法は、機能、論理、または、効果において、示された図面の1つ以上のブロックまたはブロック部分に相当すると考えられてもよい。
フローチャート図および/またはブロック図において、様々な種類の矢印および線が用いられてもよいが、それらは対応する実施の形態の範囲を限定しない、と理解される。実際に、いくつかの矢印または他の結合子は、示された実施の形態の論理の流れのみを表すために使用されてもよい。例えば、矢印は、示された実施の形態の列挙されたステップ間の、継続期間が不特定な待機またはモニタリングの期間を表してもよい。ブロック図および/またはフローチャート図の各ブロック、ならびにそれらブロック図および/またはフローチャート図におけるブロックの組み合わせが、特定の機能もしくは行為を実行する専用ハードウェアをベースとするシステムまたは専用ハードウェアとコードとの組み合わせにより実行可能であるということを留意すべきである。
各図面における要素の説明は、継続する図面の要素を参照してもよい。同じ要素の別の実施の形態を含め、全ての図面において同じ番号は同じ要素を参照する。
一般に、方法、システム、装置、およびコンピュータプログラム製品は、動作に関するバイオメトリックデータ(movement-oriented biometric data)の運動学解析(kinematic analysis)をリアルタイムで実施する。実施形態によっては、運動学解析はユーザの意図を解釈するために使用されてもよい。例えば、運動学解析は、ユーザの動きにより、短いエッジスワイプのような短距離の動きが意図されているのか、長いエッジスワイプのような長距離の動きが意図されているのかを解釈するために使用されてもよい。
実施の形態によっては、運動学解析は、ユーザがコンピュータインターフェイスに注意を向けているかどうか、またはコンピュータインターフェイスからユーザの注意が逸れたかどうかを解釈するために使用される。コンピュータインターフェイスは、ディスプレイ、ウィンドウ、またはディスプレイもしくはウィンドウの任意の下位要素であってもよい。コンピュータインターフェイスの特質は、電子デバイスの種類および電子デバイス上で実行されるアプリケーションの特質によって決まってもよい。例えば、コンピュータインターフェイスは、ラップトップコンピュータ、デスクトップコンピュータ、またはタブレットコンピュータのウィンドウブラウザであってもよい。別の例として、コンピュータインターフェイスは、読み取りアプリケーションを実行する電子リーダまたは携帯型デバイスのディスプレイ全体であってもよい。
実施の形態によっては、動作に関するバイオメトリックデータは、動作値と位置値の少なくとも一方を特定するために使用される。実施の形態によっては、動作値と位置値の少なくとも一方は、ユーザの意図を解釈するために、複数の閾値と比較されてもよい。例えば、加速度閾値を超え、ジャーク(または振動)閾値を超える場合、ユーザの動きは注意をそらす動きと解釈されてもよい。実施形態によっては、動作値と位置値の少なくとも一方は、ユーザの意図を解釈するために複数のプロファイルと比較されてもよい。例えば、速度値が鐘形曲線に一致した場合、ユーザの動きは短距離の動きと解釈されてもよい。実施形態によっては、動作値と位置値の少なくとも一方は、ユーザの意図を解釈するために閾値およびプロファイルと比較されてもよい。例えば、速度値が鐘形曲線に一致し、加速度値が閾値を超える場合、ユーザの動きは長距離の動きと解釈されてもよい。実施の形態によっては、ユーザの意図の特定に応じて、ユーザの意図に基づき選択されたアクションが実施される。
実施の形態によっては、運動学解析は、ユーザがコンピュータインターフェイスとの関連でどこを見ているかを特定するために使用される。例えば、バイオメトリックデータは、コンピュータインターフェイス上のブラウジング位置を特定するために分析されてもよい。さらに分析を行うことで、ユーザがコンピュータインターフェイスから注意をそらす時が、リアルタイムで特定されてもよい。ユーザの注意の逸れを特定した後、注意が逸れる動きに対応するブラウジング位置は、直近のブラウジング位置として格納されてもよい。ユーザが直近のブラウジング位置をすばやく識別しやすくするために、視覚的な手がかりが直近のブラウジング位置に提供されてもよい。例えば、コンピュータインターフェイス上の、直近のブラウジング位置に対応する語をハイライトすることで、コンピュータインターフェイス上でテキストを読んでいるユーザは、最後に読んだ語をすばやく識別し、再び読み始めることができる。
図1は、本開示の実施の形態に係る、動作に関するバイオメトリックデータ(movement-oriented biometric data)を取得して分析するシステム(system)100を示す。システム100は電子デバイス(electric device)101を備える。電子デバイス101は、プロセッサ(processor)102、ディスプレイ(display))104、ユーザの意図分析デバイス(user intention analysis device)110、ブラウジング位置の手がかりデバイス(browsing location cue device)112、およびメモリ(memory)114を備える。実施の形態によっては、電子デバイス101はまた、入力デバイス(input device)106および/またはバイオメトリックセンサ(biometric sensor)108を備える。電子デバイス101の構成要素は、コンピュータバスのような通信ファブリックにより相互接続していてもよい。実施の形態によっては、電子デバイス101は、バイオメトリックデータ取得デバイス(biometric data acquisition device)120と通信接続される。バイオメトリックデータ取得デバイス120は、バイオメトリックデータを取得する外部バイオメトリックセンサ(external biometric sensor)122を含む。
プロセッサ102は、コンピュータに読み込み可能な命令を実行する能力とバイオメトリックデータに対して論理演算を実行する能力の少なくとも一方を持つ任意の公知のコントローラを備えていてもよい。例えば、プロセッサ102は、マイクロコントローラ、マイクロプロセッサ、中央処理装置(Central Processing Unit:CPU)、グラフィックス処理装置(Graphics Processing Unit:GPU)、補助処理装置、FPGA、または類似するプログラマブルコントローラであってもよい。実施の形態によっては、本明細書で説明される方法および一連の動作を実施するために、プロセッサ102はメモリ114に格納された命令を実行する。
ディスプレイ104は、視覚的なデータをユーザに対して出力することのできる、任意の公知のディスプレイを備えていてもよい。例えば、ディスプレイ104は、画像、テキスト等をユーザに対して出力することのできる、LCDディスプレイ、LEDディスプレイ、OLEDディスプレイ、プロジェクタ、または類似するディスプレイデバイスであってもよい。ディスプレイ104は、プロセッサ102、ユーザの意図分析デバイス110、および/またはブラウジング位置の手がかりデバイス112から表示用の画像データを受信してもよい。
入力デバイス106は、任意の公知のコンピュータ入力デバイス106を備えていてもよい。例えば、入力デバイス106は、タッチパネル、ボタン、キー等であってもよい。実施の形態によっては、入力デバイス106は、タッチスクリーンや類似するタッチセンサディスプレイのような、ディスプレイ104と一体化していてもよい。実施の形態によっては、動作に関するバイオメトリックデータは、入力デバイス106により生成されてもよい。例えば、指の位置に関連するバイオメトリックデータは、入力デバイス106から受信されてもよい。
バイオメトリックセンサ108は、動作に関するバイオメトリックデータを集めるセンサである。実施の形態によっては、バイオメトリックセンサ108は、ユーザのジェスチャー(gesture)を追跡することのできるカメラシステムである。実施の形態によっては、バイオメトリックセンサ108は、目の注視データ(eye gazing data)および/または目の追跡データ(eye tracking data)を集めることのできるカメラシステムである。目の注視データおよび目の追跡データはどちらも、ユーザの目がどこを見ているかを特定するために使用される,動作に関するバイオメトリックデータの例である。
本明細書で使用されているように、目の注視データは、コンピュータインターフェイスとの関連で顔特徴の向きを識別することにより、目の動きを追跡する動作に関するバイオメトリックデータを参照する。目の注視データは、身長、首の向き、鼻の向き、および他の顔特徴を使用することにより、大まかな向きの情報を提供する。しかし、目の注視データは、目が見ている正確な場所を提供しない。それに対して、目の追跡データは、瞳孔の場所や網膜の場所のような、目の特徴を識別することにより、目の動きを追跡する,動作に関するバイオメトリックデータを参照する。目の追跡データは、正確な目の向きの情報を提供し、ユーザがどこを見ているかをより正確に特定することができる。
ユーザの意図分析デバイス110は、動作に関するバイオメトリックデータに対して作動して、動きからユーザの意図を解釈する。ユーザの意図分析デバイス110には、コンピュータハードウェアとコンピュータソフトウェアのうち少なくとも一方が備えられていてもよい。例えば、ユーザの意図分析デバイス110は、動作に関するバイオメトリックデータを使用して、検出された動きのユーザの意図を解釈するように構成された回路またはプロセッサであってもよい。実施形態によっては、ユーザの意図分析デバイス110はソフトウェアコードを備え、そのソフトウェアコードによって、プロセッサ102は動作に関するバイオメトリックデータからユーザの意図を解釈することが可能となる。ユーザの意図分析デバイス110については、以下で図2および3を参照してさらに詳細に考察を行う。
ブラウジング位置の手がかりデバイス112は、動作に関するバイオメトリックデータに対して作動して、直近の既知のブラウジング位置の手がかりを提供する。ブラウジング位置の手がかりデバイス112には、コンピュータハードウェアとコンピュータソフトウェアのうち少なくとも一方が備えられていてもよい。例えば、ブラウジング位置の手がかりデバイス112は、動作に関するバイオメトリックデータから直近の既知のブラウジング位置の手がかりを提供するように構成された回路またはプロセッサであってもよい。別の例として、ブラウジング位置の手がかりデバイス112はソフトウェアコードを備えていてもよく、そのソフトウェアコードによって、プロセッサ102は動作に関するバイオメトリックデータから直近の既知のブラウジング位置の手がかりを提供することが可能となる。ブラウジング位置の手がかりデバイス112については、以下で図10および11を参照してさらに詳細に考察を行う。
メモリ114は、コンピュータ可読記憶媒体として実装されてもよい。図1に示された実施の形態では、メモリ114は、バイオメトリックデータ116およびユーザプロファイル118を格納する。バイオメトリックデータ116は、入力デバイス106により、バイオメトリックセンサ108により、またはバイオメトリックデータ取得デバイス120により取得されてもよい。実施の形態によっては、格納されるバイオメトリックデータ116は、所定の数に限定してもよい。例えば、格納されるバイオメトリックデータ116は、最新の2秒間の、動作に関するバイオメトリックデータとしてもよい。別の例として、格納されるバイオメトリックデータ116は、最新の500ミリ秒の、動作に関するバイオメトリックデータとしてもよい。かかる実施の形態では、バイオメトリックデータ116は、バッファの容量に達するとすぐに最も古い値が最も新しい値により上書きされる、リングバッファ(ring buffer)、円形アレイ(circular allay) 、または、類似する構造(similar structure)に格納してもよい。
バイオメトリックデータ116は、時間値と、対応する位置値、対応する速度値、対応する加速度値、および対応するジャーク(または振動)値の1つ以上とを含んでいてもよい。バイオメトリックデータ116として格納される値の種類は、入力デバイス106、バイオメトリックセンサ108、および/またはバイオメトリックデータ取得デバイス120により集められたデータの種類によって決まってもよい。あるいは、入力デバイス106、バイオメトリックセンサ108、および/またはバイオメトリックデータ取得デバイス120により集められたデータは、分解(passed)または増大(augmented)して、バイオメトリックデータ116を形成してもよい。ユーザプロファイル118は、ユーザ固有のパラメータおよび好みを含むことにしてもよい。ユーザプロファイル118のユーザ固有のパラメータおよび好みは、ユーザにより、または自動プロセス、例えば校正の一連の動作により、定義されてもよい。実施の形態によっては、電子デバイス101の各ユーザの個別のプロファイルが格納される。
バイオメトリックデータ取得デバイス120は、電子デバイス101と通信可能に接続されており、動作に関するバイオメトリックデータを集める。バイオメトリックデータ取得デバイス120は、有線または無線インターフェイスを経由して電子デバイス101と動作に関するバイオメトリックデータをやり取りしてもよい。外部バイオメトリックセンサ122は、上述したバイオメトリックセンサ108と同様な構成としてもよい。実施の形態によっては、バイオメトリックデータ取得デバイス120は、電子デバイス101の外部にあるが物理的に接続されている。例えば、バイオメトリックデータ取得デバイス120は、電子デバイス101に取り付けられている、ケースやカバーを含む付属品であってもよい。
図2は、本開示の実施形態に係る、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図を解釈する装置(apparatus for interpreting user intention)200を示す。装置200は、上記で図1を参照して説明したユーザの意図分析デバイス110のようなユーザの意図分析デバイス(user intention analysis device)110を備える。ユーザの意図分析デバイス110は、バイオメトリックデータモジュール(biometric data module)202、動作モジュール(movement module)204、および評価モジュール(evaluation module)206を備える。バイオメトリックデータモジュール202は、例えば入力デバイス106、バイオメトリックセンサ108、および/またはメモリ114から動作に関するバイオメトリックデータを受信する。
実施の形態によっては、バイオメトリックデータモジュール202は、直近のバイオメトリックデータ、例えばバイオメトリックデータの直近のN個のサンプルを識別する(Nは正の整数である)。バイオメトリックデータモジュール202は、バイオメトリックデータ値の数を所定のウィンドウサイズ、つまりユーザの反応時間に対応するウィンドウサイズに限定してもよい。検出された動きが意識的な動き(すなわち反応)であり、音や無意識な動き等によるアーチファクト(artifact)または誤検出ではないということを保証することから、ユーザの反応時間を著しく上回るウィンドウサイズは信頼性を高めることができる。
動作モジュール204は、動作に関するバイオメトリックデータから動作値を特定する。実施の形態によっては、動作モジュール204は、動作に関するバイオメトリックデータから加速度値を特定する。例えば、バイオメトリックデータが位置値および時間値を含む場合、動作モジュール204は、時間値に対応する加速度値を導き出してもよい。実施の形態によっては、動作モジュール204は、バイオメトリックデータから位置値、速度値、および/またはジャーク値(jerk value)を特定する。動作モジュール204は、バイオメトリックデータから動作値を得るために、積分および/または微分を計算する回路を有していてもよい。例えば、動作モジュール204は、位置データの二次微分を計算する回路を有していてもよい。
評価モジュール206は、動作モジュール204により特定された動作値に基づき、動きについてのユーザの意図を解釈する。例えば、評価モジュール206は、ユーザが短距離のアクションまたは長距離のアクションをとろうと意図するかどうかを特定してもよい。実施の形態によっては、加速度値、速度値、位置値、および/またはジャーク値は、ユーザの意図を解釈するために、閾値および/またはプロファイルと比較されてもよい。例えば、加速度閾値を超えかつジャーク閾値を超える場合、評価モジュール206は、ユーザの意図を、注意が逸れる動き(distraction movement)をとることであると解釈してもよい。別の例として、速度値が鐘形曲線のプロファイル(bell curve profile)に一致した場合、評価モジュール206は、ユーザが短距離の動きをとろうと意図すると特定してもよい。実施の形態によっては、ユーザの意図を解釈するために、動作値(すなわち、加速度値、速度値、位置値、および/またはジャーク値)は閾値とプロファイルの組み合わせと比較されてもよい。例えば、速度値が鐘形曲線に一致し、かつ、加速度値が閾値を超える場合、ユーザの動きは長距離の動きとして解釈されてもよい。
評価モジュール206は、速度値がゼロ(またはほとんどゼロ)で、加速度値がコンピュータのインターフェイスの端(または境界)でマイナスである時、ユーザが短距離の(すなわち、インターフェイス内での)動きをとろうと意図すると特定してもよい。一方、評価モジュール206は、速度値がコンピュータインターフェイスの端(または境界)でゼロを上回る場合、または加速度値がコンピュータインターフェイスの端(または境界)でプラスである場合、ユーザが長距離の(すなわち、インターフェイスの外での)動きをとろうと意図すると特定してもよい。コンピュータインターフェイスは、ラップトップコンピュータ、デスクトップコンピュータ、またはタブレットコンピュータのウィンドウブラウザであってもよい。一例として、コンピュータインターフェイスは、読み取りアプリケーションを実行する電子リーダまたは携帯型デバイスのディスプレイ全体であってもよい。前者では、コンピュータインターフェイスの境界は当該ウィンドウの境界に相当し、一方後者では、コンピュータインタ-フェイスの境界はディスプレイ自体の境界に相当する。
速度値が読むスピードのプロファイルに一致する場合、評価モジュール206はユーザが読んでいる最中であると特定してもよい。一定の時間の間、速度値が読む速度のプロファイルを下回った時、評価モジュール206はユーザの注意が向いていないと特定してもよい。加えて、速度値が読むスピードを上回り、ジャーク値がジャーク閾値を超える場合、評価モジュール206はユーザの注意が逸れたと特定してもよい。加えて、またはあるいは、速度値が注意の逸れのプロファイルに一致する時、ユーザの注意が逸れたと特定されてもよい。ユーザ固有のプロファイルおよび閾値はユーザプロファイル118に格納されてもよい。
図3は、本開示の実施の形態に係る、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図を解釈する装置(apparatus for interpreting user intention)300を示す。装置300は、上記で図1および2を参照して説明したユーザの意図分析デバイス110のようなユーザの意図分析デバイス110を備える。ユーザの意図分析デバイス110は、上記で図2を参照して説明したように、バイオメトリックデータモジュール202、動作モジュール204、および評価モジュール206を含む。図3の実施の形態では、ユーザの意図分析デバイス(user intention analysis device)110はまた、位置モジュール(location module)302、速度モジュール(velocity module)304、ジャークモジュール(jerk module)306、適応モジュール(adaptation module)308、および/または校正モジュール(calibration)310を備える。
位置モジュール302は、動作に関するバイオメトリックデータから場所値(location values)または位置値(position values)を識別する。実施の形態によっては、位置モジュール302は、コンピュータインターフェイスに関連する1つ以上の位置閾値を格納してもよい。例えば、位置モジュール302は、コンピュータインターフェイスの境界に対応する位置閾値を格納してもよい。別の例として、位置モジュール302は、端、入力フィールド等のコンピュータインターフェイスの特定の領域に対応する位置閾値を格納してもよい。実施の形態によっては、格納された位置閾値は評価モジュール206により使用され、ユーザの意図を特定してもよい。実施の形態によっては、位置モジュール302自体が位置値を位置閾値と比較し、その結果を評価モジュール206に出力してもよい。
位置モジュール302は、独立モジュールであってもよく、または動作モジュール204および/または評価モジュール206のサブモジュールであってもよい。実施の形態によっては、位置モジュール302は、ユーザの動きを分類するために使用される1つ以上の位置プロファイルを格納してもよい。例えば、位置モジュール302は、コンピュータインターフェイス内での短距離の動きに対応する位置プロファイルを格納してもよい。
速度モジュール304は、動作に関するバイオメトリックデータから速度値、すなわちスピード値を識別する。実施形態によっては、速度モジュール304は、コンピュータインターフェイスに関連する1つ以上の速度閾値を格納してもよい。例えば、速度モジュール304は、コンピュータインターフェイスの境界に対応する速度閾値を格納してもよい。実施の形態によっては、速度閾値は一般的な閾値である。実施の形態によっては、格納された速度閾値は評価モジュール206により使用され、ユーザの意図を特定する。実施の形態によっては、速度モジュール304自体が速度値を速度閾値と比較し、その結果を評価モジュール206に出力する。
速度モジュール304は、独立モジュールであってもよく、または動作モジュール204および/または評価モジュール206のサブモジュールであってもよい。実施形態によっては、速度モジュール304は、ユーザの動きを分類するために使用される1つ以上の速度プロファイルを格納してもよい。例えば、速度モジュール304は、コンピュータインターフェイス内での短距離の動きに対応する速度プロファイルを格納してもよい。
ジャークモジュール306は、動作に関するバイオメトリックデータからジャーク値、すなわち振動値を識別する。実施形態によっては、ジャークモジュール306は、コンピュータインターフェイスに関連する1つ以上のジャーク閾値を格納してもよい。例えば、ジャークモジュール306は、境界、端等のコンピュータインターフェイスの特定の領域に対応するジャーク閾値を格納してもよい。実施の形態によっては、ジャーク閾値は一般的な閾値である。実施の形態によっては、格納されたジャーク閾値は評価モジュール206により使用され、ユーザの意図を特定する。実施の形態によっては、ジャークモジュール306自体がジャーク値をジャーク閾値と比較し、その結果を評価モジュール206に出力する。
ジャークモジュール306は、独立モジュールであってもよく、または動作モジュール204および/または評価モジュール206のサブモジュールであってもよい。実施の形態によっては、ジャークモジュール306は、ユーザの動きを分類するために使用される1つ以上のジャークプロファイルを格納してもよい。例えば、ジャークモジュール306は、コンピュータインターフェイス内での短距離の動きに対応するジャークプロファイルを格納してもよい。
適応モジュール308は、コンピュータインターフェイスの変化に応じてユーザの意図分析デバイス110により使用される閾値および/またはプロファイルを動的に調整する。適応モジュール308は、動作に関するバイオメトリックデータの位置値、速度値、加速度値、および/またはジャーク値に関連する閾値とプロファイルを変更してもよい。実施の形態によっては、適応モジュール308は、コンピュータインターフェイスの寸法の変化に応じて閾値および/またはプロファイルを調整してもよい。例えば、コンピュータインターフェイスがウィンドウに相当する場合、ウィンドウサイズを変化させることで、適応モジュール308がコンピュータインターフェイスの境界または端に関連する閾値および/またはプロファイルを調整するようにしてもよい。別の例として、ウィンドウサイズを変化させることで、適応モジュール308がまた、速度閾値、加速度閾値、および/またはジャーク閾値を調整し、ウィンドウの新たな寸法を構成するようにしてもよい。
実施の形態によっては、適応モジュール308は、ユーザとコンピュータインターフェイスの間の距離が変化した時、閾値とプロファイルのうち少なくとも一方を調整してもよい。例えば、電子デバイス101が携帯型電子デバイス(例えば、スマートフォンまたはタブレットコンピュータ)である場合、ユーザが携帯型電子デバイスをユーザの顔のより近くへと動かした時に、適応モジュール308は閾値および/またはプロファイルを調整してもよい。コンピュータインターフェイスの寸法自体はピクセル的には変化していないが、コンピュータインターフェイスの寸法はユーザには異なるように見えるため、調整には、ユーザとコンピュータインターフェイスの寸法の間の角度の変化が考慮されてもよい。
実施の形態によっては、校正モジュール310は、ユーザの動きの実績を測定し、評価モジュール206により使用される初期の閾値とプロファイルのうち少なくとも一方を設定するために使用され、動作に関するバイオメトリックデータを解釈する。校正は、ユーザの意図分析デバイス110が初期化される最初の時、ユーザの意図分析デバイス110が初期化されるたびに、行われてもよく、または、ユーザにより手動で選択されてもよい。校正は、ユーザに固有であってもよく、ユーザプロファイル118に格納されてもよい。比較はユーザの動きの正確なパターンに基づいていてもよいため、校正モジュール310は、動作に関するバイオメトリックデータのより正確な解釈を可能とする。実施形態によっては、ユーザの反応時間は、校正モジュール310により校正される。反応の動きおよび自発的な動きを無意識の動きと区別し、より正確にユーザの動きを解釈することができるように、ユーザの反応時間は十分に大きなサイズのサンプルを特定するために使用されてもよい。
図4−Aおよび4−Bは、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図を解釈するシステム(system for interpreting user intention)400および410の実施形態を示す。システム400および410は、上記で図1を参照して説明した電子デバイス101のような電子デバイス101を有する。図4−Aでは、電子デバイス101は、ユーザの指(user’s finger(s))402の位置および/または動きに関する、動作に関するバイオメトリックデータを受信する。指402は、電子デバイス101のディスプレイに触れていてもよく、または電子デバイス101のディスプレイの前面のエリアでジェスチャーをしていてもよい。ブラウジング位置(browsing location)404は、コンピュータインターフェイス(computer interface)408上にあり、ディスプレイ(display)406におけるウィンドウに対応してもよい。電子デバイス101は、動作に関するバイオメトリックデータから指402のブラウジング位置404を特定することができる。
実施の形態によっては、動作に関するバイオメトリックデータは、ユーザの指402による動きが短距離の動き、例えば短いエッジスワイプ、それとも長距離の動き、例えば長いエッジスワイプ、を開始するように意図されているかを特定するために使用されてもよい。上記で図2および3を参照して考察したように、電子デバイス101は、ブラウジング位置404を含め、動作に関するバイオメトリックデータを1つ以上の閾値とプロファイルのうち少なくとも一方と比較することによって、ユーザの意図を解釈してもよい。
図4−Bでは、電子デバイス101は、ユーザの目(user’s eye(s))412の場所と動きのうち少なくとも一方についての動作に関するバイオメトリックデータを受信する。電子デバイス101は、動作に関するバイオメトリックデータからユーザの目412の視点(viewing location)414を特定することができる。視点414は、コンピュータインターフェイス(computer interface)418上にあり、ディスプレイ全体に対応していてもよい。実施の形態によっては、動作に関するバイオメトリックデータは、ユーザの目412による動きが短距離の動き、例えば短いエッジスワイプ、それとも長距離の動き、例えば長いエッジスワイプ、を開始するように意図されているかを特定するために、電子デバイス101により使用されてもよい。実施の形態によっては、動作に関するバイオメトリックデータは、ユーザの目412による動きが、コンピュータインターフェイス418からユーザの注意が逸れていること、すなわちユーザがコンピュータインターフェイス418に注意を向けていないことを表すのかを特定するために使用されてもよい。上記図2および図3を参照して考察したように、電子デバイス101は、視点414を含め、動作に関するバイオメトリックデータを1つ以上の閾値と1つ以上のプロファイルのうち少なくとも一方と比較することによって、ユーザの意図を解釈してもよい。
図5は、本開示の実施の形態に係る、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図を解釈する方法500を示す。一実施の形態では、方法500は、電子デバイス101の動作に関するバイオメトリックデータを受信するステップ502から始まる。特定の実施の形態では、バイオメトリックデータモジュール202は、入力デバイス106、バイオメトリックセンサ108、およびバイオメトリックデータ116のうちの1つから動作に関するバイオメトリックデータを得る。動作に関するバイオメトリックデータを受信するステップ502は、バイオメトリックデータの直近のN個のサンプルのみを受信するステップを含んでもよく、ここでNは、バイオメトリックデータの測定ウィンドウに対応する正の整数である。測定ウィンドウはユーザに固有であってもよく、またNの値は、プロンプト(prompt)される、自動的に特定される、ユーザプロファイル118から検索される、および/またはコンピュータインターフェイスの特性に応じて調整されることにしてもよい。
方法500は、動作に関するバイオメトリックデータから加速度値を識別するステップ504に進む。加速度値は、ユーザの意図分析デバイス110の動作モジュール204を経由して、識別されてもよい。実施の形態によっては、評価モジュール206は、加速度値に基づきユーザの意図を解釈する(ステップ506)。ユーザの意図は、短距離の動き、長距離の動き、および注意の逸れの動きのうち少なくともいずれかであってもよい。ユーザの意図は、加速度値を1つ以上の加速度閾値とプロファイルのうち少なくとも一方と比較することにより解釈されてもよい(ステップ506)。閾値および/またはプロファイルは、ユーザに、コンピュータインターフェイスに、および/または電子デバイス101に固有であってもよい。
図6は、本開示の実施形態に係る、動作に関するバイオメトリックデータの運動学解析に基づきユーザの意図を解釈する方法600を示す。一実施の形態では、方法600は、電子デバイス101の動作に関するバイオメトリックデータを受信するステップ602から始まる。方法600は、現在のウィンドウとして直近のN個のデータポイントを格納するステップ604を含み、ここでNはユーザの反応時間に対応する正の整数である。バイオメトリックデータは、現在のウィンドウにおける動作値を特定するステップ606において分析される。これらの動作値は、N個のデータポイントに対応するぴったりの瞬間に対する位置値、速度値、加速度値、およびジャーク値のうち少なくともいずれかであってもよい。動作値は、バイオメトリックデータの特質次第で、動作に関するバイオメトリックデータから解析または計算されてもよい。
特定された動作値は、現在のウィンドウにおいて1つ以上のトリガーが満たされたかどうかを特定するステップ608において検討されてもよい。トリガーは、位置、圧力、速度、および/または加速度に基づいていてもよく、解釈の必要がある動きが起こったことを、ユーザの意図分析デバイス110に知らせてもよい。加えて、ユーザの動きの意図を解釈するために、トリガーは、ユーザの意図分析デバイス110を使用する別のプログラムまたはモジュールから受信されてもよい。ステップ608で肯定的な結果を得るために、1つ以上のトリガーが満たされる必要があることにしてもよい。
トリガーが満たされるとすぐに、現在のウィンドウの動作値は解釈され(ステップ610)、ユーザの意図を特定する。動作値は、短距離の動きや、長距離の動きを表す場合がある。また、動作値は、注意が逸れるまたは注意を向けない動きを表す場合がある。他の動きおよび/またはジェスチャーは、当該技術分野において知られているものと同様に解釈してもよい。
実施の形態によっては、方法600は、ユーザの意図に対応するアクションを実行するステップ612に続く。例えば、スワイプコマンドに対応するアクション(すなわち、クローズアクション、メニューアクション、スイッチングアクション)は、ユーザの意図を解釈した後でとられてもよい。実施の形態によっては、データ値は、ユーザの意図の解釈に応じて、呼び出しプログラムに戻されるかメモリに格納される。
図7は、本開示の実施の形態に係る、動作値に基づきユーザの意図を解釈する方法700を示す。動きは、動作値を様々な閾値と比較することによって識別される。方法700は、動作値を少なくとも1つの加速度閾値と比較するステップ702を含む。加速度閾値を超えない場合、方法700は次に正常な動きを識別し(ステップ704)、その指標を返す。加速度閾値を超える場合、動作値は少なくとも1つの速度閾値と比較されてもよい(ステップ706)。
速度閾値を超えない場合、方法700は短距離の動きを識別し(ステップ708)、その指標を返してもよい。そうでなければ、速度閾値を超える場合、方法700はステップ710へと続き、ここで動作値は少なくとも1つのジャーク閾値と比較される。ジャーク閾値を超える場合、方法700は、注意が逸れる動きとして動きを識別して(ステップ712)、その指標を返してもよく、そうでなければ、動きは長距離の動きとして識別されて(ステップ714)、その指標は返されてもよい。閾値は、バイオメトリックデータ(例えば、目の注視データまたは指の位置データ)の特質に応じて、また他の比較の結果に応じて選択されてもよい。加えて、または、あるいは、動作値は、方法700の比較ステップ各々において、1つ以上のプロファイルと比較されてもよい。
図8は、本開示の実施の形態に係る、動作に関するバイオメトリックデータに基づきユーザの注意の逸れを特定する方法800を示す。動作に関するバイオメトリックデータから得られた動作値は、例えば評価モジュール206を使用して、加速度閾値と比較されてもよい(ステップ802)。次に、動作値は、例えば評価モジュール206または速度モジュール304を使用して、速度閾値と比較されてもよい(ステップ804)。次に、動作値は、例えば評価モジュール206またはジャークモジュール306を使用して、ジャーク閾値と比較されてもよい(ステップ806)。動作値が全ての閾値を満たす場合、方法800は、注意の逸れの動きを識別し、その指標を返してもよい(ステップ808)。
閾値のうちいずれかが満たされない場合、方法800は、正常な(すなわち、注意を向ける)動きを特定し(ステップ810)、その指標を返してもよい。閾値はバイオメトリックデータ(例えば、目の注視データまたは指の位置データ)の特質に応じて選択されてもよい。加えて、または、あるいは、動作値は、方法800の比較ステップ各々において、1つ以上のプロファイルと比較されてもよい。
図9は、本開示の実施の形態に係る、動作に関するバイオメトリックデータに基づき短距離の動きと長距離の動きとを区別する方法900を示す。方法900は、コンピュータインターフェイス内での動きが検出された時に開始してもよい。位置閾値が満たされるちょうどその瞬間を特定するために、ステップ902において、動作に関するバイオメトリックデータはモニタリングされる。実施形態によっては、位置閾値はコンピュータインターフェイスの境界に対応する。
ステップ904において、既定の瞬間に対応する加速度値は、加速度閾値と比較される、例えば、コンピュータインターフェイスの境界における加速度値は、加速度閾値と比較されてもよい。加速度閾値が満たされる場合、さらなる比較がなされ、そうでなければ動きは短距離の動きとして識別される(ステップ910)。実施の形態によっては、加速度閾値はほとんどゼロである。
ステップ906において、既定のちょうどその瞬間に対応する速度値は、速度閾値と比較される。例えば、コンピュータインターフェイスの境界における速度値は、速度閾値と比較されてもよい。速度閾値が満たされる場合、動きは長距離の動きとして識別される(ステップ908)。うでなければ動きは短距離の動きとして識別される(ステップ910)。
図10は、本開示の実施形態に係る、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する装置(apparatus for providing a last known browsing location cue)1000を示す。装置1000は、上記で図1を参照して説明したブラウジング位置の手がかりデバイス112のようなブラウジング位置の手がかりデバイス112を備える。ブラウジング位置の手がかりデバイス112は、バイオメトリックデータモジュール(biometric data module)1002、注意判断モジュール(attention judgment module)1004、および位置の手がかりモジュール(location cue module)1006を備える。
バイオメトリックデータモジュール1002は、例えば入力デバイス106、バイオメトリックセンサ108、メモリ114、またはバイオメトリックデータ取得デバイス120から、動作に関するバイオメトリックデータを受信する。実施の形態によっては、バイオメトリックデータモジュール1002は、直近のバイオメトリックデータ、例えばバイオメトリックデータの直近のN個のサンプルを識別し、ここでNは正の整数である。バイオメトリックデータモジュール1002は、バイオメトリックデータ値の数を所定のウィンドウサイズ、つまりユーザの反応時間に対応するウィンドウサイズに限定してもよい。ユーザの反応時間を著しく上回るウィンドウサイズは、検出された動きが意識的な動き(すなわち反応)であり、音や無意識な動き等によるアーチファクトまたは誤検出ではないということを保証するため、信頼性を高めることができる。バイオメトリックデータモジュール1002は、図2を参照して考察したバイオメトリックデータモジュール202と類似していてもよい。
注意判断モジュール1004は、バイオメトリックデータに基づきユーザの注意の逸れを検出する。実施の形態によっては、注意判断モジュール1004は、バイオメトリックデータから動作値を特定する。例えば、注意判断モジュール1004は、動作に関するバイオメトリックデータから、位置値、速度値、加速度値、ジャーク値、または動作関連の他の値を特定してもよい。注意判断モジュール1004は、バイオメトリックデータから動作値を得るために、積分と微分のうち少なくとも一方を計算する回路を有していてもよい。例えば、注意判断モジュール1004は、場所データの二次微分を計算する回路を有していてもよい。
実施の形態によっては、注意判断モジュール1004は、別のデバイスまたはモジュールから動作値を受信する。例えば、注意判断モジュール1004は、入力デバイス106、バイオメトリックセンサ108、ユーザの意図分析デバイス110、メモリ116、バイオメトリックデータ取得デバイス120、および動作モジュール204のうち少なくともいずれか1つ以上から動作値を受信してもよい。
実施の形態によっては、注意判断モジュール1004は、ユーザの注意の逸れを検出するために、動作値を分析する。実施形態によっては、動作値(すなわち、加速度値、速度値、位置値、およびジャーク値のうち少なくとも1つ)は、ユーザの注意の逸れを検出するために、閾値および/またはプロファイルと比較されてもよい。例えば、加速度閾値を超え、ジャーク閾値を超える場合、注意判断モジュール1004は、ユーザの意図が注意をそらす動きをとることであると解釈してもよい。実施の形態によっては、ユーザの意図を解釈するために、動作値は閾値とプロファイルの組み合わせと比較されてもよい。実施形態によっては、ユーザの注意の逸れを検出するために、コンピュータインターフェイスの端または境界における動作値は分析されてもよい。
コンピュータインターフェイスは、ラップトップコンピュータ、デスクトップコンピュータ、またはタブレットコンピュータのウィンドウブラウザであってもよい。一例として、コンピュータインターフェイスは、読み取りアプリケーションを実行する電子リーダまたは携帯型デバイスのディスプレイ全体であってもよい。実施形態によっては、注意判断モジュール1004は、評価モジュール206のような別のモジュールまたはデバイスからユーザの注意が逸れたとの知らせを受信する。
実施の形態によっては、速度値が読むスピードのプロファイルに一致する時、注意判断モジュール1004はユーザが読んでいる最中であると特定してもよい。速度値が読むスピードを上回り、ジャーク値がジャーク閾値を超える時、注意判断モジュール1004はユーザの注意が逸れたと特定してもよい。加えて、またはあるいは、速度値が注意の逸れのプロファイルに一致する時、ユーザの注意が逸れたと特定されてもよい。ユーザ固有のプロファイルおよび閾値はユーザプロファイル118に格納されてもよい。
実施の形態によっては、注意判断モジュール1004は、最初にユーザの注意が逸れたちょうどその瞬間を識別する。注意判断モジュール1004は、この瞬間を表す値をメモリ114に格納してもよく、またはこの値を別のモジュールまたはデバイスに出力してもよい。
位置の手がかりモジュール1006は、ユーザの注意が逸れたと特定する注意判断モジュール1004に応じて、コンピュータインターフェイスにおいて視覚的な手がかりを提供する。視覚的な手がかりは、直近の既知のブラウジング位置を表すのに適した、例えば、ハイライト、下線、アイコン等の任意の指標であってもよい。実施形態によっては、直近の既知のブラウジング位置は、ユーザの注意が逸れた直前に見ていたコンピュータインターフェイス上の場所に相当する。実施形態によっては、位置の手がかりモジュール1006は、バイオメトリックデータから直近の既知のブラウジング位置を特定する。他の実施形態では、位置の手がかりモジュール1006は、別のモジュールまたはデバイスから直近の既知のブラウジング位置を受信する。
位置の手がかりモジュール1006は、ユーザの注意が逸れているとの知らせを受信した直後に視覚的な手がかりを提供してもよく、または、タイマーの期限切れのような追加のトリガーの受信に応じて視覚的な手がかりを示してもよい。加えて、実施形態によっては、位置の手がかりモジュール1006は、既定の時間後、または、ユーザが再びコンピュータインターフェイスに注意を向けているとの知らせのような別のトリガーの受信に応じて、視覚的な手がかりを削除してもよい。
図11は、本開示の実施の形態に係る、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する装置(apparatus for providing a last known browsing location cue)1100を示す。装置1100は、上記で図1および10を参照して説明したブラウジング位置の手がかりデバイス112のようなブラウジング位置の手がかりデバイス112を備える。ブラウジング位置の手がかりデバイス112は、上記で図10を参照して説明したように、バイオメトリックデータモジュール1002、判断モジュール1004、および位置の手がかりモジュール1006を備える。図11の実施の形態では、ブラウジング位置の手がかりデバイス112はまた、ブラウジング位置モジュール(browsing location module)1102、直近の位置モジュール(last location module)1104、手がかりタイマーモジュール(cue timer module)1106、手がかり取り下げモジュール(cue dismissal module)1108、注意更新モジュール(attention renewal module)1110、動作閾値モジュール(movement threshold module)1112、および/または動作プロファイルモジュール(movement profile module)1114を備えている。
ブラウジング位置モジュール1102は、動作に関するバイオメトリックデータに基づきコンピュータインターフェイス上のブラウジング位置を識別する。また、実施の形態によっては、ブラウジング位置モジュール1102は、コンピュータインターフェイス上のユーザが見ている場所、つまりブラウジング位置を特定するために、動作に関するバイオメトリックデータから位置値を識別し、位置値を相互に関連付ける。実施の形態によっては、ブラウジング位置モジュール1102は、ブラウジング位置を特定するために、目の追跡または目の注視のアルゴリズムを使用する。
実施の形態によっては、ブラウジング位置モジュール1102は、入力デバイス106、バイオメトリックセンサ108、ユーザの意図分析デバイス110、メモリ116、バイオメトリックデータ取得デバイス120、動作モジュール204、注意判断モジュール1004のような別のデバイスまたはモジュールから、動作に関するバイオメトリックデータから特定された位置値を受信し、位置値からブラウジング位置を付け加える。
実施の形態によっては、ブラウジング位置モジュール1102は、多数の最近のブラウジング位置を格納する。最近のブラウジング位置は、メモリ114またはブラウジング位置モジュール1102自体に格納されてもよい。多数の最近のブラウジング位置は、不変または可変であってもよい。実施形態によっては、ブラウジング位置モジュール1102は、バイオメトリックデータモジュール1002により使用されるデータウィンドウサイズに対応する。実施の形態によっては、ブラウジング位置モジュール1102は、位置の手がかりモジュール1006に最近のブラウジング位置を提供する。実施の形態によっては、ブラウジング位置モジュール1102は、注意をそらす瞬間に対応する直近の既知のブラウジング位置を特定し、位置の手がかりモジュール1006に直近の既知のブラウジング位置を提供する。
直近の位置モジュール1104は、検出されたユーザの注意の逸れに対応する、注意を向けていない時間を識別する。実施の形態によっては、直近の位置モジュール1104は、注意判断モジュール1004からユーザの注意が逸れたとの知らせを受信し、最初にユーザの注意が逸れたちょうどその瞬間を識別する。直近の位置モジュール1104は、この瞬間を表す値をメモリ114に格納してもよく、または、直近の既知のブラウジング位置の特定に用いるために、この値を位置の手がかりモジュール1006やブラウジング位置モジュール1102のような別のモジュールまたはデバイスに出力してもよい。実施形態によっては、直近の位置モジュール1104は、直近の既知のブラウジング位置の提供に用いるために、注意を向けていない時間を位置の手がかりモジュール1006に送信する。
手がかりタイマーモジュール1106は、ユーザの注意の逸れの検出に応じて表示タイマーを起動する。表示タイマーは、別のデバイスまたはモジュールに信号を送信する前に、既定の時間をカウントダウン(または実装によってはカウントアップ)する。実施の形態によっては、表示タイマーは調整可能であり、その時間はユーザに固有である。例えば、ユーザは、表示タイマー値を指定してもよい。別の例として、手がかりタイマーモジュール1106は、ユーザプロファイル118のデータに基づき表示タイマー値を自動的に特定してもよい。期限が切れると、手がかりタイマーモジュール1106は、位置の手がかりモジュール1006に信号を送信して、視覚的な手がかりが表示されるべきであることを知らせる。
手がかり取り下げモジュール1108は、ユーザの注意の逸れの検出に応じて削除タイマーを起動する。削除タイマーは、別のデバイスまたはモジュールに信号を送信する前に、既定の時間をカウントダウン(または実装によってはカウントアップ)する。実施形態によっては、削除タイマーは調整可能であり、その時間はユーザに固有である。例えば、ユーザは、削除タイマー値を指定してもよい。別の例として、手がかり取り下げモジュール1108は、ユーザプロファイル118のデータに基づき削除タイマー値を自動的に特定してもよい。実施の形態によっては、手がかり取り下げモジュール1108は、削除タイマーの期限切れに応じて視覚的な手がかりを削除する。他の実施の形態では、手がかり取り下げモジュール1108は、削除タイマーの期限が切れると位置の手がかりモジュール1006に信号を送信して、視覚的な手がかりが削除されるべきであることを知らせる。
注意更新モジュール1110は、ユーザの注意が逸れた後、ユーザの注意がコンピュータインターフェイスに戻されたかどうかを検出する。実施の形態によっては、注意更新モジュール1110は、動作に関するバイオメトリックデータに対して作動して、ユーザが再びコンピュータインターフェイスに注意を向けていることを特定する。実施の形態によっては、動作値(すなわち、加速度値、速度値、位置値、およびジャーク値のうち少なくとも1つ)は、ユーザの注意を検出するために、閾値とプロファイルのうち少なくとも一方と比較されてもよい。例えば、速度値が読むスピードのプロファイルに一致する時、注意更新モジュール1110はユーザがコンピュータインターフェイスに注意を向けていると特定してもよい。別の例として、注意更新モジュール1110は、ある時間にわたり加速度値が速度閾値を下回った時にユーザがコンピュータインターフェイスに注意を向けており、ブラウジング位置がコンピュータインターフェイス内の位置に相当する、と特定してもよい。
ユーザの注意がコンピュータインターフェイスに戻ったことが検出されると、注意更新モジュール1110は、位置の手がかりモジュール1006に信号を送り、視覚的な手がかりが提供されるべきであることを知らせる。実施の形態によっては、注意更新モジュール1110は、評価モジュール206、動作閾値モジュール1112、動作プロファイルモジュール1114のような別のデバイスまたはモジュールからユーザが注意を向けているとの知らせを受信し、位置の手がかりモジュール1006に、視覚的な手がかりが提供されるべきであるとの信号を送る。
動作閾値モジュール1112は、ユーザがコンピュータインターフェイスに注意を向けているかどうかを特定するために、動作に関するバイオメトリックデータを少なくとも1つの閾値と比較する。閾値は、位置閾値、速度閾値、加速度閾値、およびジャーク閾値のうち少なくとも一方であってもよい。例えば、動作閾値モジュール1112は、ある時間にわたり加速度値が速度閾値を下回った時にユーザがコンピュータインターフェイスに注意を向けており、ブラウジング位置がコンピュータインターフェイス内の場所に相当する、と特定してもよい。実施形態によっては、動作閾値モジュール1112は、ユーザの注意が逸れているかどうかを特定するために、判断モジュール1004と連動して作動する。実施の形態によっては、動作閾値モジュール1112は、視覚的な手がかりをいつ提供すべきかを特定するために、位置の手がかりモジュール1006と連動して作動する。
動作プロファイルモジュール1114は、ユーザがコンピュータインターフェイスに注意を向けているかどうかを特定するために、動作に関するバイオメトリックデータを少なくとも1つのプロファイルと比較する。プロファイルは、目のスピードプロファイル、目の加速度プロファイル、および目の振動プロファイルのうち少なくとも1つであってもよい。例えば、速度値が読むスピードのプロファイルに一致する時、動作プロファイルモジュール1114は、ユーザがコンピュータインターフェイスに注意を向けていると特定してもよい。実施の形態によっては、動作プロファイルモジュール1114は、ユーザの注意が逸れているかどうかを特定するために、判断モジュール1004と連動して作動する。実施の形態によっては、動作プロファイルモジュール1114は、視覚的な手がかりをいつ提供すべきかを特定するために、位置の手がかりモジュール1006と連動して作動する。
図12−A〜12−Dは、本開示の実施の形態に係る、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供するシステム1200を示す。システム1200は、ユーザ1202により見られている電子デバイス101を備える。電子デバイス101は、コンピュータインターフェイス1206を有する。実施形態によっては、コンピュータインターフェイス1206は、ディスプレイ、ウィンドウ、またはディスプレイもしくはウィンドウの任意の下位要素であってもよい。コンピュータインターフェイス1206の特質は、電子デバイス101の種類および電子デバイス101上で実行されるアプリケーションの特質によって決まってもよい。
図12−Aでは、ユーザ1202は、コンピュータインターフェイス1206を見ている。電子デバイス101は、ユーザの目1202の場所と動きのうち少なくとも一方に関する動作に関するバイオメトリックデータを受信する。電子デバイス101は、動作に関するバイオメトリックデータから目の視点1204を特定することができる。視点1204はコンピュータインターフェイス1206上にあり、ディスプレイ全体に相当するように示されている。
図12−Bでは、ユーザ1202の注意が逸れ、もはやコンピュータインターフェイス1206を見ていない。電子デバイス101は、コンピュータインターフェイス1206から離れたユーザの目1202の動きに関する動作に関するバイオメトリックデータを受信する。図2、3および図5〜8を参照して上記で考察したように、電子デバイス101は、動作に関するバイオメトリックデータから動作値を識別し、動作値を閾値とプロファイルのうち少なくとも一方と比較することによって、ユーザ1202の注意の逸れを特定してもよい。実施の形態によっては、ユーザの意図分析デバイス110は、ユーザの注意の逸れを特定し、判断モジュール1004に信号を送る。実施形態によっては、1112および1114のうちの1つは、ユーザの注意の逸れを特定し、判断モジュール1004に信号を送る。実施の形態によっては、判断モジュール1004はユーザの注意の逸れを特定する。ユーザの注意の逸れを特定すると、注意をそらす前の直近の視点1204が識別される。
図12−Cでは、注意をそらす前の直近の視点1204が識別され、視覚的な手がかり1208がユーザ1202に示される。実施の形態によっては、視覚的な手がかりがタイマーの期限切れに応じて提供される。実施の形態によっては、ユーザがもう一度コンピュータインターフェイス1206を見ているとの検出に応じて、視覚的な手がかりが提供される。
視覚的な手がかり1208は、直近の既知のブラウジング位置を表すのに適した任意の指標であってもよい。例えば、視覚的な手がかり1208は、ハイライト(例えば、ハイライトされたテキスト)、下線、フォアグラウンドマーク、バックグラウンドマーク(例えば、透かし)、アイコン等であってもよい。実施の形態によっては、視覚的な手がかり1208は、動画を用いたテキストまたは色分けされたテキスト(すなわち、異なる色のテキスト)を備える。実施の形態によっては、視覚的な手がかり1208は、目を引く、はっきりした色または明るい色を備えてもよい。実施の形態によっては、視覚的な手がかりは、直近の既知のブラウジング位置を取り囲んだエリア以外のテキスト、画像、または他のディスプレイデータの色を薄くすることによって提供される。例えば、直近の既知のブラウジング位置にある語、および1つ以上の隣接する文脈語は、黒字で表示されてもよく、一方、コンピュータインターフェイスにおけるその他全ての語は、より薄い色合いのグレーで表示されてもよい。別の例として、直近の既知のブラウジング位置にある文章は黒字で表示されてもよく、一方、コンピュータインターフェイスにおけるその他全ての語は、より薄い色合いで表示されてもよい。
実施の形態によっては、現在の視点1204に対応する、コンピュータインターフェイス1206上の語または場所に下線を引いたりハイライトをしたり、時間と共にまたは推移と共に色を薄くして透明にするトレースが提供されてもよい(例えば、現在のブラウジング位置の語には透明度0%で下線が引かれ、一方、以前のM語には下線が引かれ、その透明度は高い)。ユーザの注意の逸れが検出されると、下線またはハイライトが直近の既知のブラウジング位置を表すように、トレースの色が薄くなるのが止まる。
図12−Dでは、ユーザ1202は、視覚的な手がかり1208を視覚的に取得し、直近の既知のブラウジング位置を簡単に識別する。ユーザ1202は、コンピュータインターフェイス1206をすばやく再び見始める(例えば、読み始める)ことができる。視覚的な手がかり1208は、ユーザ1202がコンピュータインターフェイス1206に注意を向けていることを識別する電子デバイス101に応じて削除される。実施の形態によっては、視覚的な手がかり1208は、コンピュータインターフェイス1206に注意を向けているユーザ1202に応じて起動されたタイマーの期限切れに応じて削除される。実施の形態によっては、視覚的な手がかり1208は、ユーザ1202が正常な活動、例えば正常なスピードで読むことを再開したということを、動作に関するバイオメトリックデータから特定する電子デバイス101に応じて削除される。
図13は、本開示の実施形態に係る、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する方法1300を示す。方法1300は、動作に関するバイオメトリックデータを受信するステップ1302を備える。特定の実施の形態では、バイオメトリックデータモジュール1002は、例えば、入力デバイス106、バイオメトリックセンサ108、122、および格納されたバイオメトリックデータ116のうちの1つから動作に関するバイオメトリックデータを得る。
動作に関するバイオメトリックデータを受信するステップ1302は、バイオメトリックデータの直近のN個のサンプルのみを受信するステップを含んでもよく、ここでNは、バイオメトリックデータの測定ウィンドウに対応する正の整数である。測定ウィンドウはユーザに固有であってもよく、またNの値は、プロンプトされる、自動的に特定される、ユーザプロファイル118から引き出される、および/またはコンピュータインターフェイスの特性に応じて調整されることにしてもよい。実施の形態によっては、動作に関するバイオメトリックデータはリアルタイムで受信され、複数の視点位置値および複数のタイムスタンプを備え、各タイムスタンプは複数の視点位置のうちの1つに対応する。実施の形態によっては、動作に関するバイオメトリックデータは目の注視データである。実施の形態によっては、動作に関するバイオメトリックデータは視線追跡データである。
方法1300は、動作に関するバイオメトリックデータに基づきコンピュータインターフェイスからのユーザの注意の逸れを検出するステップ1304に進む。実施の形態によっては、動作値は、ブラウジング位置の手がかりデバイス112の判断モジュール1004を経由して識別される。動作値は、ユーザの注意が逸れたことを特定するために、様々な閾値とプロファイルのうち少なくとも一方と比較されてもよい。実施形態によっては、ステップ1304は、最初にユーザの注意が逸れたちょうどその瞬間を識別するステップを備える。
方法1300は、コンピュータインターフェイスにおいて、直近の既知のブラウジング位置を表す視覚的な手がかりを提供するステップ1306に続く。視覚的な手がかりは、直近の既知のブラウジング位置を表すのに適した任意の指標であってもよい。直近の既知のブラウジング位置は、ユーザの注意が逸れた直前に見ていたコンピュータインターフェイス上の場所である。実施の形態によっては、直近の既知のブラウジング位置は、バイオメトリックデータから特定される。他の実施形態では、直近の既知のブラウジング位置は、別のモジュールまたはデバイスから受信される。視覚的な手がかりは、ユーザの注意が逸れていると検出した(ステップ1304)直後に示されてもよく、または、タイマーの期限切れのような、追加のトリガーの受信に応じて示されてもよい。加えて、実施の形態によっては、視覚的な手がかりは、既定の時間後、または、ユーザが再びコンピュータインターフェイスに注意を向けているとの知らせの受信に応じて、削除されてもよい。
図14は、本開示の実施形態に係る、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する方法1400を示す。方法1400は、例えば、入力デバイス106、バイオメトリックセンサ108、バイオメトリックデータ取得デバイス120、および格納されたバイオメトリックデータ116のうち少なくとも1つから、動作に関するバイオメトリックデータを受信するステップ1402を備える。動作に関するバイオメトリックデータは、ブラウジング位置を識別する(ステップ1404)ために使用される。実施形態によっては、複数のブラウジング位置が、コンピュータインターフェイス上の、ユーザが見た一番最近の場所に対応して識別される。
実施の形態によっては、ステップ1402は、動作に関するバイオメトリックデータから位置値を識別するステップと、ユーザがどこを見ているかを特定するために、位置値をコンピュータインターフェイス上の位置に相互に関連付けるステップとを備える。実施の形態によっては、ステップ1402は、ブラウジング位置を特定するために、視線追跡または目の注視のアルゴリズムを使用するステップを備える。実施の形態によっては、ステップ1402は、入力デバイス106、バイオメトリックセンサ108、ユーザの意図分析デバイス110、格納されたバイオメトリックデータ116、バイオメトリックデータ取得デバイス120、動作モジュール204、注意判断モジュール1004のような別のデバイスまたはモジュールから位置値を受信するステップと、位置値からブラウジング位置を付け加えるステップとを備える。
ステップ1406は、ユーザの注意の逸れが検出されたかどうかを特定するステップを含む。ユーザの注意の逸れは、上記で考察したように、バイオメトリックデータを閾値とプロファイルのうち少なくとも一方と比較することによって検出されてもよい。ユーザの注意の逸れが検出されなかった場合、方法1400はループし、ステップ1406を繰り返す。ユーザの注意の逸れが検出された場合、注意を向けていない時間が、検出されたユーザの注意の逸れに対応して識別される(ステップ1408)。注意を向けていない時間は、ブラウジング位置を直近の既知のブラウジング位置として識別し、割り当てる(ステップ1410)ために使用される。
ステップ1412は、表示タイマーを起動するステップを含む。表示タイマーは、既定の時間をカウントダウンする。表示タイマーは調整可能であってもよく、ユーザに固有であってもよい。表示タイマーの期限が切れると、視覚的な手がかりが直近の既知のブラウジング位置に示される(ステップ1414)。
ステップ1416は、削除タイマーを起動するステップを含む。実施の形態によっては、削除タイマーは、ユーザが再びユーザインターフェイスに注意を向けていることが検出されると起動される。実施の形態によっては、削除タイマーは、視覚的な手がかりの提供に応じて起動される。削除タイマーの期限が切れると、視覚的な手がかりがコンピュータインターフェイスから削除される(ステップ1418)。
図15は、本開示の実施の形態に係る、動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供する方法1500を示す。方法1500は、例えば、入力デバイス106、バイオメトリックセンサ108、バイオメトリックデータ取得デバイス120、および/またはバイオメトリックデータ116から、動作に関するバイオメトリックデータを受信するステップ1502を備える。動作に関するバイオメトリックデータは、ブラウジング位置を識別する(ステップ1504)ために使用される。実施の形態によっては、複数のブラウジング位置が、コンピュータインターフェイス上の、ユーザが見た一番最近の場所に対応して識別される。
実施の形態によっては、ステップ1502は、動作に関するバイオメトリックデータから位置値を識別するステップと、ユーザがどこを見ているかを特定するために、位置値をコンピュータインターフェイス上の位置に相互に関連付けるステップとを備える。実施の形態によっては、ステップ1502は、ブラウジング位置を特定するために、視線追跡または目の注視のアルゴリズムを使用するステップを備える。実施の形態によっては、ステップ1502は、入力デバイス106、バイオメトリックセンサ108、ユーザの意図分析デバイス110、格納されたバイオメトリックデータ116、バイオメトリックデータ取得デバイス120、動作モジュール204、注意判断モジュール1004のような別のデバイスまたはモジュールから位置値を受信するステップと、位置値からブラウジング位置を付け加えるステップとを備える。
ステップ1506は、ユーザの注意の逸れが検出されたかどうかを特定するステップを含む。ユーザの注意の逸れは、上記で考察したように、バイオメトリックデータを閾値とプロファイルのうち少なくとも一方と比較することによって検出されてもよい。ユーザの注意の逸れが検出されなかった場合、方法1500はループし、ステップ1506を繰り返す。ユーザの注意の逸れが検出された場合、注意を向けていない時間が、検出されたユーザの注意の逸れに対応して識別される(ステップ1508)。注意を向けていない時間は、ブラウジング位置を直近の既知のブラウジング位置として識別し、割り当てる(ステップ1510)ために使用される。
ステップ1512は、ユーザの注意を検出するステップを含む。動作に関するバイオメトリックデータは、ユーザが再びコンピュータディスプレイに注意を向けているということを検出するために分析されてもよい。実施の形態によっては、分析は、上記で考察したように、動作に関するバイオメトリックデータを閾値とプロファイルのうち少なくとも一方と比較するステップを含む。ユーザの注意が検出されると、視覚的な手がかりが直近の既知のブラウジング位置に示される(ステップ1514)。
ステップ1516は、削除タイマーを起動するステップを含む。実施の形態によっては、削除タイマーは、ユーザが再びユーザインターフェイスに注意を向けていることの検出に応じて起動される。実施の形態によっては、削除タイマーは、視覚的な手がかりの提供に応じて起動される。削除タイマーの期限が切れると、視覚的な手がかりがコンピュータインターフェイスから削除される(ステップ1518)。
実施の形態は他の具体的な態様で実施されてもよい。説明した実施の形態は、あらゆる点で単なる例示にすぎず、限定的に解釈してはならない。したがって、本発明の範囲は添付の特許請求の範囲によって示されており、明細書本文にはなんら拘束されない。特許請求と均等な意味および範囲にあるすべての変更は、本発明の範囲内のものである。
101 電子デバイス
102 プロセッサ
104 ディスプレイ
106 入力デバイス
108 バイオメトリックセンサ
110 ユーザの意図分析デバイス
112 ブラウジング位置の手がかりデバイス
114 メモリ
116 バイオメトリックデータ
118 ユーザプロファイル
120 バイオメトリックデータ取得デバイス
122 外部バイオメトリックセンサ
202 バイオメトリックデータモジュール
204 動作モジュール
206 評価モジュール
302 位置モジュール
304 速度モジュール
306 ジャークモジュール
308 適応モジュール
310 校正モジュール
1002 バイオメトリックデータモジュール
1004 注意判断モジュール
1006 位置の手がかりモジュール
1102 ブラウジング位置モジュール
1104 直近の位置モジュール
1106 手がかりタイマーモジュール
1108 手がかり取り下げモジュール
1110 注意更新モジュール
1112 動作閾値モジュール
1114 動作プロファイルモジュール

Claims (18)

  1. プロセッサが動作に関するバイオメトリックデータを受信するステップと、
    前記動作に関するバイオメトリックデータに基づきコンピュータインターフェイスからのユーザの注意の逸れを検出するステップと、
    前記コンピュータインターフェイスにおいて、直近の既知のブラウジング位置を表す視覚的な手がかりを提供するステップと、
    前記視覚的な手がかりの提供に応じて削除タイマーを起動するステップと、
    前記削除タイマーの期限切れに応じて前記コンピュータインターフェイスから前記視覚的な手がかりを削除するステップと、
    を備えることを特徴とする方法。
  2. 前記動作に関するバイオメトリックデータに基づき、前記コンピュータインターフェイス上の複数のブラウジング位置を識別するステップと、
    前記検出されたユーザの注意の逸れに対応する、注意を向けていない時間を識別するステップと、
    をさらに備え、
    前記コンピュータインターフェイスにおいて、前記視覚的な手がかりを提供するステップは、前記注意を向けていない時間に対応してブラウジング位置に前記視覚的な手がかりを表示するステップを備えることを特徴とする請求項1に記載の方法。
  3. 前記ユーザの注意の逸れの検出に応じて表示タイマーを起動するステップをさらに備え、
    前記表示タイマーの期限切れに応じて、前記視覚的な手がかりを提供するステップが実行されることを特徴とする請求項1に記載の方法。
  4. 前記ユーザの注意の逸れの後、ユーザの注意が前記コンピュータインターフェイスに戻されたかどうかを検出するステップと、
    前記ユーザの注意の検出に応じて前記視覚的な手がかりを提供するステップと、
    をさらに備えることを特徴とする請求項1に記載の方法。
  5. 前記ユーザが前記コンピュータインターフェイスに注意を向けているかどうかを特定するために、前記動作に関するバイオメトリックデータを少なくとも1つの閾値と比較するステップをさらに備え、
    前記少なくとも1つの閾値は、位置閾値、速度閾値、加速度閾値、およびジャーク閾値からなる群から選択されることを特徴とする請求項1に記載の方法。
  6. 前記ユーザが前記コンピュータインターフェイスに注意を向けているかどうかを特定するために、前記動作に関するバイオメトリックデータを少なくとも1つのプロファイルと比較するステップをさらに備え、
    前記少なくとも1つのプロファイルは、目の速度プロファイル、目の加速度プロファイル、および目の振動プロファイルからなる群から選択されることを特徴とする請求項1に記載の方法。
  7. 前記動作に関するバイオメトリックデータはリアルタイムで受信され、複数の視点位置値および複数の視点タイムスタンプを備え、
    前記視点タイムスタンプのそれぞれが前記複数の視点位置値のうちの1つに対応することを特徴とする請求項1に記載の方法。
  8. 前記動作に関するバイオメトリックデータは、目の注視データおよび視線追跡データからなる群から選択されることを特徴とする請求項1に記載の方法。
  9. 前記視覚的な手がかりが、ハイライト、下線、トレース、マーカー、透かし、色分けされたテキスト、色の薄いテキスト、アニメのテキスト、およびアイコンからなる群から選択されることを特徴とする請求項1に記載の方法。
  10. プロセッサと、
    前記プロセッサにより実行可能なコードを格納するメモリと
    を備え、
    前記コードは、
    動作に関するバイオメトリックデータを受信するコードと、
    前記動作に関するバイオメトリックデータに基づきユーザの注意の逸れを検出するコードと、
    ンピュータインターフェイスにおいて、直近の既知のブラウジング位置を表す視覚的な手がかりを提供するコードと、
    前記視覚的な手がかりの提供に応じて削除タイマーを起動するコードと、
    前記削除タイマーの期限切れに応じて前記コンピュータインターフェイスから前記視覚的な手がかりを削除するコードと、
    を備えることを特徴とする装置。
  11. 前記動作に関するバイオメトリックデータに基づき、コンピュータインターフェイス上のブラウジング位置を識別するコードと、
    前記検出されたユーザの注意の逸れに対応する注意を向けていない時間を識別するコードと、をさらに備え、
    前記コードは、前記注意を向けていない時間に対応してブラウジング位置に前記視覚的な手がかりを表示する
    ことを特徴とする請求項10に記載の装置。
  12. 前記ユーザの注意の逸れの検出に応じて表示タイマーを起動するコードであって、前記表示タイマーの期限切れに応じて前記視覚的な手がかりを提供するコードと、
    削除タイマーの期限切れに応じて前記コンピュータインターフェイスから前記視覚的な手がかりを削除するコードと、
    をさらに備えることを特徴とする請求項10に記載の装置。
  13. 前記ユーザの注意の逸れの後、ユーザの注意が前記コンピュータインターフェイスに戻されたかどうかを検出するコードをさらに備え、
    前記コードは、ユーザの注意が前記コンピュータインターフェイスへ戻ったことに応じて前記視覚的な手がかりを提供することを特徴とする請求項10に記載の装置。
  14. 前記ユーザが前記コンピュータインターフェイスに注意を向けているかどうかを特定するために、前記動作に関するバイオメトリックデータを少なくとも1つの閾値と比較するコードをさらに備え、
    前記少なくとも1つの閾値は、位置閾値、速度閾値、加速度閾値、およびジャーク閾値からなる群から選択されることを特徴とする請求項10に記載の装置。
  15. 前記ユーザが前記コンピュータインターフェイスに注意を向けているかどうかを特定するために、前記動作に関するバイオメトリックデータを少なくとも1つのプロファイルと比較するコードをさらに備え、
    前記少なくとも1つのプロファイルは、目の速度プロファイル、目の加速度プロファイル、および目の振動プロファイルからなる群から選択される
    ことを特徴とする請求項10に記載の装置。
  16. 動作に関するバイオメトリックデータを受信する工程と、
    前記動作に関するバイオメトリックデータに基づいた、コンピュータインターフェイスからのユーザの注意の逸れを検出する工程と、
    前記コンピュータインターフェイスにおける、直近の既知のブラウジング位置を表す視覚的な手がかりを提供する工程と、
    前記視覚的な手がかりの提供に応じて削除タイマーを起動する工程と、
    前記削除タイマーの期限切れに応じて前記コンピュータインターフェイスから前記視覚的な手がかりを削除する工程と、
    をコンピュータに実行させることを特徴とするコンピュータが実行可能なプログラム。
  17. さらに、
    前記ユーザの注意の逸れの後、ユーザの注意が前記コンピュータインターフェイスに戻されたかどうかを検出する工程と、
    前記ユーザの注意の検出に応じた前記視覚的な手がかりを提供する工程と、
    をコンピュータに実行させることを特徴とする請求項16に記載のコンピュータが実行可能なプログラム。
  18. さらに、
    前記ユーザの注意の逸れの検出に応じて表示タイマーを起動する工程と、
    前記表示タイマーの期限切れに応じて前記視覚的な手がかりを提供する工程と、
    をコンピュータに実行させることを特徴とする請求項16に記載のコンピュータが実行可能なプログラム。
JP2014246586A 2013-12-20 2014-12-05 動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供すること Active JP5977808B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/137,451 2013-12-20
US14/137,451 US10180716B2 (en) 2013-12-20 2013-12-20 Providing last known browsing location cue using movement-oriented biometric data

Publications (2)

Publication Number Publication Date
JP2015122064A JP2015122064A (ja) 2015-07-02
JP5977808B2 true JP5977808B2 (ja) 2016-08-24

Family

ID=53275461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014246586A Active JP5977808B2 (ja) 2013-12-20 2014-12-05 動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供すること

Country Status (4)

Country Link
US (1) US10180716B2 (ja)
JP (1) JP5977808B2 (ja)
CN (1) CN104731314B (ja)
DE (1) DE102014118112A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
KR102224932B1 (ko) * 2014-02-19 2021-03-08 삼성전자주식회사 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법
US10552514B1 (en) 2015-02-25 2020-02-04 Amazon Technologies, Inc. Process for contextualizing position
US9721031B1 (en) * 2015-02-25 2017-08-01 Amazon Technologies, Inc. Anchoring bookmarks to individual words for precise positioning within electronic documents
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
US20170115726A1 (en) * 2015-10-22 2017-04-27 Blue Goji Corp. Incorporating biometric data from multiple sources to augment real-time electronic interaction
CN106621328B (zh) * 2015-11-04 2019-07-26 网易(杭州)网络有限公司 一种游戏角色行为数据处理方法及系统
CN106649543B (zh) * 2016-10-27 2020-07-17 Oppo广东移动通信有限公司 记录阅读进度的方法、装置及终端
JP7176020B2 (ja) * 2021-02-03 2022-11-21 マクセル株式会社 携帯端末の制御方法

Family Cites Families (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2510344A (en) 1945-03-17 1950-06-06 Rca Corp Viewing screen
US2567654A (en) 1947-08-21 1951-09-11 Hartford Nat Bank & Trust Co Screen for television projection
DE1164465B (de) 1962-12-07 1964-03-05 Telefunken Patent Transportabler Fernsehempfaenger
US3628854A (en) 1969-12-08 1971-12-21 Optical Sciences Group Inc Flexible fresnel refracting membrane adhered to ophthalmic lens
US3972593A (en) 1974-07-01 1976-08-03 Minnesota Mining And Manufacturing Company Louvered echelon lens
US4190330A (en) 1977-12-27 1980-02-26 Bell Telephone Laboratories, Incorporated Variable focus liquid crystal lens system
US4577928A (en) 1983-04-21 1986-03-25 Data Vu Company CRT magnifying lens attachment and glare reduction system
FR2649799B1 (fr) 1989-07-12 1993-05-28 Cintra Daniel Systeme optique pour l'agrandissement d'images
JP2648558B2 (ja) 1993-06-29 1997-09-03 インターナショナル・ビジネス・マシーンズ・コーポレイション 情報選択装置及び情報選択方法
US5583795A (en) 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
FR2731896B1 (fr) 1995-03-24 1997-08-29 Commissariat Energie Atomique Dispositif de mesure de la position du point de fixation d'un oeil sur une cible, procede d'eclairage de l'oeil et application a l'affichage d'images dont les images changent en fonction des mouvements de l'oeil
JP3025173B2 (ja) 1995-04-13 2000-03-27 シャープ株式会社 データベース検索システム
US5649061A (en) 1995-05-11 1997-07-15 The United States Of America As Represented By The Secretary Of The Army Device and method for estimating a mental decision
US5898423A (en) 1996-06-25 1999-04-27 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven captioning
US5886683A (en) 1996-06-25 1999-03-23 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven information retrieval
US5831594A (en) 1996-06-25 1998-11-03 Sun Microsystems, Inc. Method and apparatus for eyetrack derived backtrack
US5731805A (en) 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US6437758B1 (en) 1996-06-25 2002-08-20 Sun Microsystems, Inc. Method and apparatus for eyetrack—mediated downloading
US6758755B2 (en) 1996-11-14 2004-07-06 Arcade Planet, Inc. Prize redemption system for games executed over a wide area network
US8821258B2 (en) 1996-11-14 2014-09-02 Agincourt Gaming, Llc Method for providing games over a wide area network
US20080227538A1 (en) 1996-11-14 2008-09-18 Bally Gaming Inc. Game prize controller and system
US5786805A (en) * 1996-12-27 1998-07-28 Barry; Edwin Franklin Method and apparatus for improving object selection on a computer display by providing cursor control with a sticky property
JPH10282310A (ja) 1997-04-11 1998-10-23 Dainippon Printing Co Ltd フレネルレンズシート及び透過型スクリーン
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
JPH11110120A (ja) 1997-10-07 1999-04-23 Canon Inc 視線情報入力装置及び視線情報入力方法
US6169538B1 (en) 1998-08-13 2001-01-02 Motorola, Inc. Method and apparatus for implementing a graphical user interface keyboard and a text buffer on electronic devices
AU6052999A (en) 1998-09-25 2000-04-17 Case Western Reserve University Acquired pendular nystagmus treatment device
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
US6120461A (en) 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
WO2001040964A1 (en) 1999-12-01 2001-06-07 Amicus Software Pty Ltd Method and apparatus for network access
JP4235340B2 (ja) 2000-04-04 2009-03-11 キヤノン株式会社 情報処理装置及び情報処理方法
US20070078552A1 (en) 2006-01-13 2007-04-05 Outland Research, Llc Gaze-based power conservation for portable media players
US6873314B1 (en) 2000-08-29 2005-03-29 International Business Machines Corporation Method and system for the recognition of reading skimming and scanning from eye-gaze patterns
US20030137586A1 (en) 2002-01-22 2003-07-24 Infinite Innovations, Inc. Vehicle video switching system and method
US7197165B2 (en) 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
US7046924B2 (en) 2002-11-25 2006-05-16 Eastman Kodak Company Method and computer program product for determining an area of importance in an image using eye monitoring information
US7206022B2 (en) 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
JP4518955B2 (ja) 2002-11-29 2010-08-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 接触エリアの移動させられた表現を用いたユーザインタフェース
US20040160419A1 (en) 2003-02-11 2004-08-19 Terradigital Systems Llc. Method for entering alphanumeric characters into a graphical user interface
DE10310794B4 (de) 2003-03-12 2012-10-18 Hewlett-Packard Development Co., L.P. Bedieneinrichtung und Kommunikationsgerät
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US9274598B2 (en) 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US8307296B2 (en) 2003-10-17 2012-11-06 Palo Alto Research Center, Incorporated Systems and methods for effective attention shifting
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
DK1607840T3 (da) 2004-06-18 2015-02-16 Tobii Technology Ab Øjenstyring af et computerapparat
US7501995B2 (en) 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US7576757B2 (en) 2004-11-24 2009-08-18 General Electric Company System and method for generating most read images in a PACS workstation
US7738684B2 (en) 2004-11-24 2010-06-15 General Electric Company System and method for displaying images on a PACS workstation based on level of significance
US7573439B2 (en) 2004-11-24 2009-08-11 General Electric Company System and method for significant image selection using visual tracking
JP4645299B2 (ja) 2005-05-16 2011-03-09 株式会社デンソー 車載用表示装置
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US20060256133A1 (en) 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8725729B2 (en) 2006-04-03 2014-05-13 Steven G. Lisa System, methods and applications for embedded internet searching and result display
US8564662B2 (en) 2006-06-28 2013-10-22 Johnson Controls Technology Company Vehicle vision system
CN101495945A (zh) 2006-07-28 2009-07-29 皇家飞利浦电子股份有限公司 用于被凝视物品的信息显示的凝视交互
US20080030466A1 (en) * 2006-08-03 2008-02-07 Leigh Simeon Keates System and method for correcting positioning and triggering errors for aim-and-trigger devices
US9244455B2 (en) 2007-09-10 2016-01-26 Fisher-Rosemount Systems, Inc. Location dependent control access in a process control system
EP2042969A1 (en) 2007-09-28 2009-04-01 Alcatel Lucent Method for determining user reaction with specific content of a displayed page.
US8077915B2 (en) 2007-10-12 2011-12-13 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
US8693737B1 (en) 2008-02-05 2014-04-08 Bank Of America Corporation Authentication systems, operations, processing, and interactions
US8099289B2 (en) 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
PL2242419T3 (pl) 2008-02-14 2016-05-31 Nokia Technologies Oy Urządzenie i sposób określania kierunku spojrzenia
US8166034B2 (en) 2008-03-26 2012-04-24 Fujifilm Corporation Saving device for image sharing, image sharing system, and image sharing method
US20090258642A1 (en) 2008-04-11 2009-10-15 Ease Diagnostics Vehicle communication system
US20090267909A1 (en) 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
US8514251B2 (en) 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
US20100045596A1 (en) 2008-08-21 2010-02-25 Sony Ericsson Mobile Communications Ab Discreet feature highlighting
TW201017474A (en) 2008-09-03 2010-05-01 Koninkl Philips Electronics Nv Method of performing a gaze-based interaction between a user and an interactive display system
US8160311B1 (en) 2008-09-26 2012-04-17 Philip Raymond Schaefer System and method for detecting facial gestures for control of an electronic device
US20100079508A1 (en) 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
EP2371110A4 (en) 2008-12-29 2017-04-19 IDTP Holdings, Inc. Method and device for installing applications on nfc-enabled devices
WO2010078596A1 (en) 2009-01-05 2010-07-08 Tactus Technology, Inc. User interface system
US8732623B2 (en) 2009-02-17 2014-05-20 Microsoft Corporation Web cam based user interaction
JP5208810B2 (ja) 2009-02-27 2013-06-12 株式会社東芝 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
US20120105486A1 (en) 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US20110065451A1 (en) 2009-09-17 2011-03-17 Ydreams-Informatica, S.A. Context-triggered systems and methods for information and services
US8175617B2 (en) 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8922480B1 (en) 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
JP5816257B2 (ja) 2010-03-22 2015-11-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 観察者の視線を追跡するシステム及び方法
JP2012008686A (ja) 2010-06-23 2012-01-12 Sony Corp 情報処理装置および方法、並びにプログラム
KR101295583B1 (ko) 2010-09-13 2013-08-09 엘지전자 주식회사 이동 단말기 및 그 동작 제어 방법
WO2012036669A1 (en) 2010-09-13 2012-03-22 Hewlett-Packard Development Company, L.P. Smile detection systems and methods
US8493390B2 (en) 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
US8886128B2 (en) 2010-12-10 2014-11-11 Verizon Patent And Licensing Inc. Method and system for providing proximity-relationship group creation
US8957847B1 (en) 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
US20120169582A1 (en) 2011-01-05 2012-07-05 Visteon Global Technologies System ready switch for eye tracking human machine interaction control system
JP5278461B2 (ja) 2011-02-03 2013-09-04 株式会社デンソー 視線検出装置および視線検出方法
CN106125921B (zh) 2011-02-09 2019-01-15 苹果公司 3d映射环境中的凝视检测
US8594374B1 (en) 2011-03-30 2013-11-26 Amazon Technologies, Inc. Secure device unlock with gaze calibration
US8643680B2 (en) 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
US20130057573A1 (en) 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
US20120268268A1 (en) 2011-04-19 2012-10-25 John Eugene Bargero Mobile sensory device
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9318129B2 (en) 2011-07-18 2016-04-19 At&T Intellectual Property I, Lp System and method for enhancing speech activity detection using facial feature detection
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
JP5785015B2 (ja) 2011-07-25 2015-09-24 京セラ株式会社 電子機器、電子文書制御プログラムおよび電子文書制御方法
US9285592B2 (en) 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
US8719278B2 (en) 2011-08-29 2014-05-06 Buckyball Mobile Inc. Method and system of scoring documents based on attributes obtained from a digital document by eye-tracking data analysis
EP2587342A1 (en) 2011-10-28 2013-05-01 Tobii Technology AB Method and system for user initiated query searches based on gaze data
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
KR101891786B1 (ko) 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US8941690B2 (en) 2011-12-09 2015-01-27 GM Global Technology Operations LLC Projected rear passenger entertainment system
CN103999032B (zh) 2011-12-12 2018-01-26 英特尔公司 显示元素中所包括的感兴趣的区域的兴趣度分数
US8824779B1 (en) 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
US8941722B2 (en) 2012-01-03 2015-01-27 Sony Corporation Automatic intelligent focus control of video
US9684374B2 (en) 2012-01-06 2017-06-20 Google Inc. Eye reflection image analysis
JP5945417B2 (ja) 2012-01-06 2016-07-05 京セラ株式会社 電子機器
US20150084864A1 (en) 2012-01-09 2015-03-26 Google Inc. Input Method
US20130198056A1 (en) 2012-01-27 2013-08-01 Verizon Patent And Licensing Inc. Near field communication transaction management and application systems and methods
US20130201305A1 (en) 2012-02-06 2013-08-08 Research In Motion Corporation Division of a graphical display into regions
US9147111B2 (en) 2012-02-10 2015-09-29 Microsoft Technology Licensing, Llc Display with blocking image generation
US8812983B2 (en) 2012-02-17 2014-08-19 Lenovo (Singapore) Pte. Ltd. Automatic magnification and selection confirmation
US9778829B2 (en) 2012-02-17 2017-10-03 Lenovo (Singapore) Pte. Ltd. Magnification based on eye input
US20140247286A1 (en) 2012-02-20 2014-09-04 Google Inc. Active Stabilization for Heads-Up Displays
US8832328B2 (en) 2012-03-13 2014-09-09 Qualcomm Incorporated Data redirection for universal serial bus devices
US20140309876A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Universal vehicle voice command system
US9096920B1 (en) 2012-03-22 2015-08-04 Google Inc. User interface method
US9207843B2 (en) 2012-03-26 2015-12-08 Nokia Technologies Oy Method and apparatus for presenting content via social networking messages
US20130260360A1 (en) 2012-03-27 2013-10-03 Sony Corporation Method and system of providing interactive information
US9361833B2 (en) 2012-04-12 2016-06-07 Intel Corporation Eye tracking based selectively backlighting a display
US8552847B1 (en) 2012-05-01 2013-10-08 Racing Incident Pty Ltd. Tactile based performance enhancement system
WO2013169237A1 (en) 2012-05-09 2013-11-14 Intel Corporation Eye tracking based selective accentuation of portions of a display
US8893164B1 (en) 2012-05-16 2014-11-18 Google Inc. Audio system
US9046917B2 (en) 2012-05-17 2015-06-02 Sri International Device, method and system for monitoring, predicting, and accelerating interactions with a computing device
US9823742B2 (en) 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
WO2013183811A1 (en) 2012-06-08 2013-12-12 Lg Electronics Inc. Portable device and method for controlling the same
US20130340005A1 (en) 2012-06-14 2013-12-19 Mobitv, Inc. Eye-tracking program guides
US20130340006A1 (en) 2012-06-14 2013-12-19 Mobitv, Inc. Eye-tracking navigation
US20140071163A1 (en) 2012-09-11 2014-03-13 Peter Tobias Kinnebrew Augmented reality information detail
US10139937B2 (en) 2012-10-12 2018-11-27 Microsoft Technology Licensing, Llc Multi-modal user expressions and user intensity as interactions with an application
US9477993B2 (en) 2012-10-14 2016-10-25 Ari M Frank Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention
US9626072B2 (en) 2012-11-07 2017-04-18 Honda Motor Co., Ltd. Eye gaze control system
US20140168054A1 (en) 2012-12-14 2014-06-19 Echostar Technologies L.L.C. Automatic page turning of electronically displayed content based on captured eye position data
US8981942B2 (en) 2012-12-17 2015-03-17 State Farm Mutual Automobile Insurance Company System and method to monitor and reduce vehicle operator impairment
US8930269B2 (en) 2012-12-17 2015-01-06 State Farm Mutual Automobile Insurance Company System and method to adjust insurance rate based on real-time data about potential vehicle operator impairment
US9996150B2 (en) 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US8854447B2 (en) 2012-12-21 2014-10-07 United Video Properties, Inc. Systems and methods for automatically adjusting audio based on gaze point
US20140195918A1 (en) 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
US9829971B2 (en) 2013-01-21 2017-11-28 Facebook, Inc. Systems and methods of eye tracking control
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US20140247232A1 (en) 2013-03-01 2014-09-04 Tobii Technology Ab Two step gaze interaction
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US20140267094A1 (en) 2013-03-13 2014-09-18 Microsoft Corporation Performing an action on a touch-enabled device based on a gesture
US10216266B2 (en) 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
US9041741B2 (en) 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
US9405771B2 (en) 2013-03-14 2016-08-02 Microsoft Technology Licensing, Llc Associating metadata with images in a personal image collection
US20140266702A1 (en) 2013-03-15 2014-09-18 South East Water Corporation Safety Monitor Application
US8876535B2 (en) 2013-03-15 2014-11-04 State Farm Mutual Automobile Insurance Company Real-time driver observation and scoring for driver's education
US9244527B2 (en) 2013-03-26 2016-01-26 Volkswagen Ag System, components and methodologies for gaze dependent gesture input control
US20140298257A1 (en) 2013-04-01 2014-10-02 Cosmic Eagle, Llc User interfaces and associated processes for information resources
US20140315531A1 (en) 2013-04-17 2014-10-23 Donald Joong System & method for enabling or restricting features based on an attention challenge
WO2014181403A1 (ja) 2013-05-08 2014-11-13 富士通株式会社 入力装置及び入力プログラム
US20140354533A1 (en) 2013-06-03 2014-12-04 Shivkumar Swaminathan Tagging using eye gaze detection
US9965062B2 (en) 2013-06-06 2018-05-08 Microsoft Technology Licensing, Llc Visual enhancements based on eye tracking
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9563283B2 (en) 2013-08-06 2017-02-07 Inuitive Ltd. Device having gaze detection capabilities and a method for using same
US10914951B2 (en) 2013-08-19 2021-02-09 Qualcomm Incorporated Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking
KR20150027614A (ko) 2013-09-04 2015-03-12 엘지전자 주식회사 이동 단말기
US10108258B2 (en) 2013-09-06 2018-10-23 Intel Corporation Multiple viewpoint image capture of a display user
US9400564B2 (en) 2013-09-17 2016-07-26 Toyota Motor Engineering & Manufacturing North America, Inc. Interactive vehicle window display system with a safe driving reminder system
US9451062B2 (en) 2013-09-30 2016-09-20 Verizon Patent And Licensing Inc. Mobile device edge view display insert
US10210761B2 (en) 2013-09-30 2019-02-19 Sackett Solutions & Innovations, LLC Driving assistance systems and methods
US20150113454A1 (en) 2013-10-21 2015-04-23 Motorola Mobility Llc Delivery of Contextual Data to a Computing Device Using Eye Tracking Technology
US9530067B2 (en) 2013-11-20 2016-12-27 Ulsee Inc. Method and apparatus for storing and retrieving personal contact information
US9229235B2 (en) 2013-12-01 2016-01-05 Apx Labs, Inc. Systems and methods for unlocking a wearable device
US9213659B2 (en) 2013-12-03 2015-12-15 Lenovo (Singapore) Pte. Ltd. Devices and methods to receive input at a first device and present output in response on a second device different from the first device
US9110635B2 (en) 2013-12-03 2015-08-18 Lenova (Singapore) Pte. Ltd. Initiating personal assistant application based on eye tracking and gestures
US10163455B2 (en) 2013-12-03 2018-12-25 Lenovo (Singapore) Pte. Ltd. Detecting pause in audible input to device
US20150169048A1 (en) 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
US10073671B2 (en) 2014-01-20 2018-09-11 Lenovo (Singapore) Pte. Ltd. Detecting noise or object interruption in audio video viewing and altering presentation based thereon
US20150205350A1 (en) 2014-01-23 2015-07-23 Lenovo (Singapore) Pte. Ltd. Skin mounted input device
US9811095B2 (en) 2014-08-06 2017-11-07 Lenovo (Singapore) Pte. Ltd. Glasses with fluid-fillable membrane for adjusting focal length of one or more lenses of the glasses
US9535497B2 (en) 2014-11-20 2017-01-03 Lenovo (Singapore) Pte. Ltd. Presentation of data on an at least partially transparent display based on user focus
US20160148342A1 (en) 2014-11-21 2016-05-26 Lenovo (Singapore) Pte. Ltd. Movement of displayed element from one display to another
US20160154555A1 (en) 2014-12-02 2016-06-02 Lenovo (Singapore) Pte. Ltd. Initiating application and performing function based on input

Also Published As

Publication number Publication date
US20150177830A1 (en) 2015-06-25
JP2015122064A (ja) 2015-07-02
CN104731314B (zh) 2018-08-24
CN104731314A (zh) 2015-06-24
US10180716B2 (en) 2019-01-15
DE102014118112A1 (de) 2015-06-25

Similar Documents

Publication Publication Date Title
JP5977808B2 (ja) 動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供すること
EP3234732B1 (en) Interaction with 3d visualization
JP5528476B2 (ja) 電子データ入力システム
US9652047B2 (en) Visual gestures for a head mounted device
US9542405B2 (en) Image processing system and method
US9207852B1 (en) Input mechanisms for electronic devices
US9633252B2 (en) Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
US10456072B2 (en) Image interpretation support apparatus and method
WO2018184233A1 (zh) 一种手势识别方法及相关装置
US20150062006A1 (en) Feature tracking for device input
US9405373B2 (en) Recognition apparatus
US20110267371A1 (en) System and method for controlling touchpad of electronic device
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
JPWO2012147960A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN104951213B (zh) 防止误触发边缘滑动手势的方法
US20070146320A1 (en) Information input system
US10585487B2 (en) Gesture interaction with a driver information system of a vehicle
US20150153834A1 (en) Motion input apparatus and motion input method
US9612683B2 (en) Operation method of touch screen with zooming-in function and touch screen device
US20150268736A1 (en) Information processing method and electronic device
US20160188151A1 (en) Information Processing Method And Electronic Device
KR102325684B1 (ko) 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법
JP2018013926A (ja) 表示制御方法
US10558270B2 (en) Method for determining non-contact gesture and device for the same
GB2524247A (en) Control of data processing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R150 Certificate of patent or registration of utility model

Ref document number: 5977808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250