JP6409507B2 - ユーザアクティビティラベルと凝視とを関連付ける方法、コンピュータシステム、及びプログラム - Google Patents

ユーザアクティビティラベルと凝視とを関連付ける方法、コンピュータシステム、及びプログラム Download PDF

Info

Publication number
JP6409507B2
JP6409507B2 JP2014221693A JP2014221693A JP6409507B2 JP 6409507 B2 JP6409507 B2 JP 6409507B2 JP 2014221693 A JP2014221693 A JP 2014221693A JP 2014221693 A JP2014221693 A JP 2014221693A JP 6409507 B2 JP6409507 B2 JP 6409507B2
Authority
JP
Japan
Prior art keywords
gaze
user
gazes
user activity
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014221693A
Other languages
English (en)
Other versions
JP2015095260A (ja
Inventor
クワフォルド ペルニッラ
クワフォルド ペルニッラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2015095260A publication Critical patent/JP2015095260A/ja
Application granted granted Critical
Publication of JP6409507B2 publication Critical patent/JP6409507B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

開示の技術は、ユーザアクティビティラベルと凝視とを関連付ける方法、コンピュータシステム、及びプログラムに関する。
ユーザがユーザインターフェイスとインタラクションし、もしくは、印刷されたページを読む場合、ユーザは、読むこと、選択すること、画像の複数の部分を調べること、などを含む一連のアクティビティに関わっている。アイトラッキング技術のいくつかは、ユーザが注意を払うものをキャプチャすることが可能である。すなわち、ユーザがテキストを読んでいるか否か識別することが可能である。しかしながら、この識別プロセスはテキストに限定され、目の動きだけに依存する。より詳細にユーザのアクティビティを理解するためには、より詳細な分析が必要である。アイトラッキングデータが有する問題の1つは、ランダムな変動(すなわち、雑音)を多く含むことである。このため、現在のアイトラッキング技術から正確なデータを取得することは不可能である。
ビエデルト(BIEDERT)、「ロバストリアルタイムリーディング−スキミング分類子(A Robust Realtime Reading-Skimming Classifier)」、ドイツ人工知能研究センター(German Research Center for Artificial Intelligence)、2012年3月28日〜30日、頁8 ブリング(BULLING)、「アイコンテキスト:人間の視覚的な振る舞いからの高レベルコンテキストキューの認識(EyeContext: Recognition of High-Level Contextual Cues from Human Visual Behavior)」、2013年4月27日〜5月2日、頁4 ブリング(BULLING)、「電気眼球図記録を用いたアクティビティ認識のための目の動きの分析(Eye Movement Analysis for Activity Recognition Using Electrooculography)」、パターン分析及び機械知能に関するIEEE議事録(IEEE Transactions on Pattern Analysis and Machine Intelligence)、Vol.33 No.4 2011年4月、頁13
例えば、現在のアイトラッキング技術は、人が見ているもの、もしくは、人が行っていること、の検出に十分な信頼性を有していない。
開示の技術は、テキストを読む、画像を見る、キーボードから文字を入力する、もしくは、ユーザインターフェイスコンポーネントとインタラクションする、などのユーザが関わるアクティビティによって凝視を分類及びグループ化するシステム及び方法について記載する。
本発明の第1の態様は、ユーザアクティビティラベルと凝視とを関連付ける方法であって、1つもしくは複数のプロセッサ及びメモリを有するコンピュータが、1つもしくは複数のユーザインターフェイスデバイスを用いてコンピュータとインタラクションしているユーザのアイトラッキングデータを受信し、前記アイトラッキングデータは時間順に並んだ凝視シーケンスを含み、凝視の各々は複数の連続する計測された注視点に対応し、凝視の各々は対応する計測された注視点の各々に基づく継続時間及び位置を有し、前記1つもしくは複数のユーザインターフェイスデバイスからユーザインタラクションデータを受信し、前記シーケンスの凝視の各々について、前記凝視の1つもしくは複数の特性及び1つもしくは複数の受信した前記ユーザインタラクションデータに基づくユーザインタラクション特徴を含む、前記凝視の複数の特徴を判定し、ユーザアクティビティラベルと凝視とを前記複数の特徴に従って関連付け、前記ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択される。
本発明の第2の態様は、第1の態様の方法であって、前記凝視の1つもしくは複数の特性は、前記凝視の継続時間、前記凝視に対応する前記連続する計測された注視点の間の距離の変動、前記凝視の間に計測される前記ユーザの瞳孔サイズの変動、の少なくとも1つを含む。
本発明の第3の態様は、第1または第2の態様の方法であって、前記複数の特徴は、前記凝視の位置と前記凝視の直前の凝視の位置との間の距離、前記凝視の位置と前記凝視の直後の凝視の位置との間の距離、前記凝視の直前の凝視の継続時間、前記凝視の直後の凝視の継続時間、の1つもしくは複数のコンテキスト特徴を含む。
本発明の第4の態様は、第1〜第3の態様のいずれかの方法であって、前記1つもしくは複数のユーザインタラクション特徴は、前記凝視の間のマウスカーソルの平均速度、前記凝視の間の前記凝視の位置からマウスカーソルの位置までの平均距離、前記凝視の間の1つもしくは複数のマウスボタンの状態、前記凝視の間のマウスボタンが押下されている場合の前記凝視の位置とマウスカーソルの位置との間の距離、の少なくとも1つを含む。
本発明の第5の態様は、第1〜第4の態様のいずれかの方法であって、前記ユーザアクティビティラベルの所定のセットは、調べる、読む、ナビゲート、選択、入力、の少なくとも1つを含む。
本発明の第6の態様は、第1〜第5の態様のいずれかの方法であって、ユーザアクティビティラベルと凝視とは、機械学習を用いて関連付けられる。
本発明の第7の態様は、第1〜第3の態様のいずれかの方法であって、前記ユーザインターフェイスデバイスはキーボード及びマウスを含み、前記ユーザインタラクション特徴は、キーボードアクティビティに基づく特徴及びマウスアクティビティに基づく特徴を含む。
本発明の第8の態様は、第1〜第7の態様のいずれかの方法であって、コンピュータユーザインターフェイスを修正するための1つもしくは複数の推奨を生成するための前記凝視及び関連付けられたユーザアクティビティラベルを分析することをさらに含む。
本発明の第9の態様は、第1〜第8の態様のいずれかの方法であって、前記コンピュータは、複数の別個の隣接する領域を有するページを表示し、前記凝視を複数のクラスタに分割し、クラスタの各々は時間順に並んだ前記凝視の連続するサブシーケンスを含み、前記凝視を複数のグループに分割するために、同一のユーザアクティビティラベルを割り当てられた連続する凝視をグループ化し、クラスタの各々に適合するグループの各々について、グループの各々の凝視の各々に割り当てられた最終ユーザアクティビティラベルとして割り当てられたユーザアクティビティラベルを維持し、前記領域を用いて、不適合グループの凝視を含む非重畳改変グループのセットを形成するために、不適合グループと不適合クラスタとを調整し、改変グループの凝視の各々はユーザアクティビティラベルの所定のセットから選択された同一の最終ユーザアクティビティラベルを割り当てられる。
本発明の第10の態様は、第9の態様の方法であって、前記凝視を複数のクラスタに分割することは、前記クラスタを構築するために、時間順で最初の凝視を含む最初のクラスタから開始し、時間順に並んだ前記凝視を処理することを含み、前記最初の凝視の後、凝視の各々について、前記凝視から直前の凝視までの距離が第1の所定距離より短い場合、直前の凝視を含むクラスタに凝視を追加し、前記凝視から直前の凝視を含むクラスタの凝視のいずれかまでの距離が第2の所定距離より短い場合、前記凝視を前記クラスタに追加し、前記凝視から直前の凝視までの距離が第1の所定距離以上であり、前記凝視から直前の凝視を含むクラスタの凝視のいずれかまでの距離が第2の所定距離以上である場合、前記凝視を含む新しいクラスタを生成する。
本発明の第11の態様は、第9または第10の態様の方法であって、不適合グループと不適合クラスタとを調整することは、不適合境界のセットを識別し、不適合境界のセットの境界の各々はグループの各々の境界であるがいずれかのクラスタの境界ではないか、もしくは、クラスタの各々の境界であるがいずれかのグループの境界ではなく、不適合境界のセットの境界の各々について、前記境界を維持するための維持コストの各々を計算し、前記境界を除去するための除去コストの各々を計算し、最も低いコストを選択することに基づいて、前記境界を維持するか、もしくは、除去し、不適合境界のセットで維持された境界に基づいて改変グループのセットを識別し、改変グループの各々の凝視の各々に割り当てられた最も優勢なユーザアクティビティラベルに基づいて改変グループの各々の凝視に最終ユーザアクティビティラベルを割り当てる。
本発明の第12の態様は、第11の態様の方法であって、境界の前記維持コスト及び除去コストは、改変グループのサイズ、改変グループの凝視の継続時間、境界の両側の凝視に割り当てられたユーザアクティビティラベル、境界の両側の凝視に対応する領域、領域のサイズ、の少なくとも1つに基づく。
本発明の第13の態様は、ユーザアクティビティラベルと凝視とを関連付けるコンピュータシステムであって、1つもしくは複数のプロセッサと、メモリと、前記メモリに記憶された1つもしくは複数のプログラムと、を含み、前記1つもしくは複数のプログラムは、1つもしくは複数のユーザインターフェイスデバイスを用いてコンピュータとインタラクションするユーザのアイトラッキングデータを受信し、前記アイトラッキングデータは時間順に並んだ凝視のシーケンスを含み、凝視の各々は連続する計測された複数の注視点の各々に対応し、凝視の各々は、対応する計測された注視点の各々に基づく継続時間及び位置を有し、1つもしくは複数のユーザインターフェイスデバイスからユーザインタラクションデータを受信し、シーケンスの各々の凝視について、1つもしくは複数の凝視の特性及び受信したユーザインタラクションデータに基づく1つもしくは複数のユーザインタラクション特徴を含む凝視の複数の特徴を判定し、複数の特徴に従ってユーザアクティビティラベルと凝視とを関連付け、前記ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択される。
本発明の第14の態様は、第13の態様のコンピュータシステムであって、前記凝視の1つもしくは複数の特性は、前記凝視の継続時間、前記凝視に対応する連続する計測された注視点の間の距離の変動、前記凝視の間に計測された前記ユーザの瞳孔サイズの変動、の少なくとも1つを含む。
本発明の第15の態様は、第13または第14の態様のコンピュータシステムであって、前記複数の特徴は、前記凝視の位置と直前の凝視の位置との間の距離、前記凝視の位置と直後の凝視の位置との間の距離、直前の凝視の継続時間、直後の凝視の継続時間、の1つもしくは複数であるコンテキスト特徴を含む。
本発明の第16の態様は、第13〜第15の態様のいずれかのコンピュータシステムであって、前記1つもしくは複数のユーザインタラクション特徴は、前記凝視の間のマウスカーソルの平均速度、前記凝視の間の前記凝視の位置からマウスカーソルまでの平均距離、前記凝視の間の1つもしくは複数のマウスボタンの状態、前記凝視の間、マウスボタンが押下されている場合の前記凝視の位置とマウスカーソルの位置との間の距離、の少なくとも1つを含む。
本発明の第17の態様は、第13〜第16の態様のいずれかのコンピュータシステムであって、ユーザアクティビティラベルの所定のセットは、調べる、読む、ナビゲート、選択及び入力の少なくとも1つを含む。
本発明の第18の態様は、第13〜第15の態様のいずれかのコンピュータシステムであって、前記ユーザインターフェイスデバイスはキーボード及びマウスを含み、前記ユーザインタラクション特徴はキーボードアクティビティに基づく特徴及びマウスアクティビティに基づく特徴を含む。
本発明の第19の態様は、第13〜第18の態様のいずれかのコンピュータシステムであって、前記コンピュータシステムは別個の隣接する複数の領域を有するページを表示し、前記1つもしくは複数のプログラムは、さらに、複数のクラスタに前記凝視を分割し、クラスタの各々は時間順に並んだ前記凝視の連続するサブシーケンスを含み、前記凝視を複数のグループに分割するために同一のユーザアクティビティラベルを割り当てられた連続する凝視をグループ化し、クラスタの各々と適合するグループの各々について、グループの各々の凝視の各々に割り当てられた最終ユーザアクティビティラベルとして割り当てられたユーザアクティビティラベルを維持し、不適合グループの凝視を含む非重畳改変グループのセットを形成するために、領域を用いて、不適合クラスタと不適合グループとを調整し、改変グループの凝視の各々はユーザアクティビティラベルの所定のセットから選択された同一の最終ユーザアクティビティラベルを割り当てられる。
本発明の第20の態様は、プログラムであって、1つもしくは複数のユーザインターフェイスデバイスを用いてコンピュータとインタラクションするユーザのアイトラッキングデータを受信し、前記アイトラッキングデータは時間順に並んだ凝視のシーケンスを含み、凝視の各々は複数の連続する継続された注視点の各々に対応し、凝視の各々は対応する計測された注視点の各々に基づく継続時間及び位置を有し、1つもしくは複数のユーザインターフェイスデバイスからユーザインタラクションを受信し、前記シーケンスの凝視の各々について、前記凝視の1つもしくは複数の特性及び受信したユーザインタラクションデータに基づく1つもしくは複数のユーザインタラクション特徴を含む前記凝視の複数の特徴を判定し、前記複数の特徴に従って、ユーザアクティビティラベルと前記凝視とを関連付け、前記ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択される。
開示の技術は、テキストを読む、画像を見る、キーボードから文字を入力する、もしくは、ユーザインターフェイスコンポーネントとインタラクションする、などのユーザが関わるアクティビティによって凝視を分類及びグループ化するシステム及び方法を提供することが可能である。
本発明の実装のいくつかが動作する環境を例示する。 本発明の実装のいくつかが動作する環境を例示する。 本発明の実装のいくつかによって使用される凝視を判定するための方法を例示する。 本発明の実装のいくつかによって使用される凝視を判定するための方法を例示する。 本発明の実装のいくつかによる凝視を検出するプロセスを例示する。 本発明の実装のいくつかによって使用される凝視を判定するための方法を例示する。 本発明の実装のいくつかによるコンピュータユーザインターフェイスの領域を例示する。 本発明の実装のいくつかによるコンピュータを例示するブロック図である。 本発明の実装のいくつかによって凝視を分類する方法を例示するフローチャートである。 本発明の実装のいくつかによって凝視を分類しグループ化するプロセスを例示する。 本発明の実装のいくつかによって凝視のクラスタと凝視のグループとが調整される方法を例示する。 本発明の実装のいくつかによって凝視のクラスタと凝視のグループとが調整される方法を例示する。 本発明の実装のいくつかによって凝視のクラスタと凝視のグループとが調整される方法を例示する。 本発明の実装のいくつかによって凝視のクラスタと凝視のグループとが調整される方法を例示する。 本発明の実装のいくつかによって凝視を分類するプロセスを例示する。 本発明の実装のいくつかによって凝視を分類するプロセスを例示する。 本発明の実装のいくつかによって凝視を分類するプロセスを例示する。 本発明の実装のいくつかによって凝視を分類するプロセスを例示する。
実装のいくつかにおいて、開示の技術は、コンピュータインターフェイスとインタラクションする間のユーザのアクティビティに関する詳細な情報を提供する。実装のいくつかにおいて、開示の技術は、ユーザリサーチのために、もしくはユーザインターフェイスデザインフィードバックのためにアイトラッキングデータを分析し、もしくは、ユーザの注目に関する情報を用いたインテリジェントユーザインターフェイスシステムを提供する。
実装のいくつかは、マーケティング資料などの印刷マテリアルの効果を評価するための開示された技術を使用する。これは、ユーザインターフェイスとインタラクションする場合にユーザが関わるアクティビティを理解するために有用である。この応用は、アイトラッキングデータ及びユーザ入力デバイス(例えば、マウス及びキーボード)から収集された情報を利用するユーザアクティビティを分類するためのシステム及び方法を記載する。
分類技術は、直接、ユーザリサーチのアイトラッキングデータを分析するソフトウェアに組み込まれ、あるいは、インテリジェントユーザインターフェイスシステムに組み込まれて、使用され得る。印刷マテリアル及びユーザインターフェイスは、テキスト、図、ユーザインターフェイスコントロールなど、異なる種類の情報を含むことがよくある。これらの異なる種類の情報を調べる場合、ユーザの注視は異なる注視パターンを示す。これらのパターンは識別され、分類され得る。
異なる情報コンテンツによって生成された領域と結合される場合、ユーザの注目及びアクティビティのより精細な評価が達成され得る。
情報が豊富なビジュアルコンテンツ(ユーザインターフェイス、ウェブページ及び電子ドキュメントなど)を評価する場合、関心領域が生成されることがよくある。関心領域は、予測されるアイトラッキングエラー内でユーザの注目をロバストに計測することが可能な程度に十分大きい。
アイトラッキングデータが、ユーザの注視と領域とを適切に関連付けることがたいへん困難となるため、小さい領域は避けられることがよくある。
既存のシステムのいくつかでは、関心領域(ROI)は手によって生成されるが、表示されているコンテンツから(例えば、領域間のホワイトスペースの行及び列を用いて、)自動的に導出されてもよい。これらの領域は、異なる注視パターンを導き出すことを期待される異なる種類の情報を含んでもよい。ROIが自動的に生成されると、より大きくより一般的な領域がより小さくより詳細な領域を含むように、階層的に入れ子にされ得る。
単独で使用される場合、キーストローク及びマウスイベントはユーザが注目しているものを適切に示さない。いくつかの場合、キーストローク及びマウスイベントはユーザの注目と同期しない。例えば、ユーザはマウスを位置付けし、テキストのピースを読み続け、次に、選択するボタンを見ずに、マウスをクリックするかもしれない。
他の例では、ユーザはテキストを読んでいる間、もしくはページを検査している間、マウスを「停めて」いるかもしれない。従って、マウスに関する情報はユーザのアクティビティに関する情報を何ら提供しない。注視データはユーザが見ている場所を直接的に識別するので、注視データは、一般的に、キーストローク及びマウスイベントより、ユーザアクティビティの分類に適している。
実装のいくつかにおいて、60以上の注視点が毎秒収集される。キーストローク及びマウスイベントによる補足的に注視データを補う開示の実装はよりよいデータを提供し得る。開示の技術は、印刷マテリアルもしくはウェブサイトの効果の評価など、ユーザリサーチのアイトラッキングデータを分析するソフトウェアにおいて使用され得る。これは、ユーザアクティビティ及び注目に関する詳細な情報を提供する。
例えば、開示の実装は、ユーザが重要な情報のピースを読んでいるのか、読まずに情報の位置を単に見ているのか、判定し得る。開示の技術は、ユーザアクティビティ及び注目に関して、デザイナ及びユーザビリティエキスパートに貴重なフィードバックを提供する。
実装のいくつかにおいて、アクティビティ分類はユーザアクティビティに関する詳細な情報を有するインテリジェントユーザインターフェイス(IUI)を提供する。分類は適切なアクションもしくは情報に関する推奨を生成するか、もしくは、タスク効率が向上するようにユーザインタラクションをカスタマイズし得る。例えば、ユーザが重要な指示を読んでいないことをシステムが検出すると、システムはユーザに指示を読むように警告し得る。もしくは、製品Xの販売プロジェクトに関連するテキストを読み、画像を調べているユーザを検出すると、システムはこのトピックに関連する同様のドキュメント及びテキストのセグメントを示唆することが可能である。
実装のいくつかは、非効率的な振る舞いのパターンを検出し、特定のタスクを解決するより効率的な方法にユーザを導こうとするチューターシステムに開示の技術を使用する。
目が比較的静止している場合及び脳が情報を処理している場合、目の動きは凝視に分類され、目が凝視点から移動する場合、サッカードに分類され得る。サッカードの継続時間は短く(例えば、80m秒より短い)、凝視はより長い(一般的に、250m秒程度であるが、80m秒〜100m秒程度に短い場合もある)。凝視識別アルゴリズムは注視データ点(例えば、毎秒60個収集される)を凝視及びサッカードにグループ化する。
凝視の各々は継続時間及び位置(例えば、凝視の注視点の重心)を有する。凝視はグループ化され、凝視の位置、凝視と関連するユーザアクティビティ及び領域のコンテンツタイプによって領域と適合することが可能である。これにより、アイトラッキングデータのみを使用する場合よりもより詳細な分析が可能となる。
本発明の実装は、任意の標準的な凝視識別アルゴリズムを使用可能である。2つの一般的な凝視検出アルゴリズムのカテゴリはばらつきベースアルゴリズム(凝視における注視点の広がりを計測する)及び速度ベースアルゴリズム(注視点間の速度を計測する)である。アルゴリズムの両方のタイプにおいて、凝視が検出されたか否か判定する閾値がある(例えば、ばらつき閾値より小さいもしくは速度閾値より小さい)。
凝視の各々について、検出アルゴリズムは凝視の各々について位置及び継続時間を提供する。凝視に属さない注視データのサンプルは一般的に凝視検出アルゴリズムによって廃棄される。
本発明の実装のいくつかは、標準アルゴリズムの下で凝視とみなされないであろう注視点セグメントを考慮するように、標準凝視検出アルゴリズムを拡張する。疑似凝視は凝視検出アルゴリズムの基準に適合せず、継続時間がサッカードとしては長い、連続的な注視データ点のグループとして定義され得る。多くの疑似凝視は、標準的な凝視アルゴリズムにとって許容可能であるより多いノイズを含む。しかしながら、擬似凝視はスムースな追跡(例えば、ディスプレイ上の移動するドットなどの動きに目が追随する場合)もしくは他の有益なイベント(ユーザがマウスを移動するもしくはタイピングする場合に加わるノイズなど)を説明してもよい。
擬似凝視を維持する実装のいくつかは、注視点セグメントの各々に「有効性」を割り当てる。例えば、凝視の各々は有効性1を有し、擬似凝視は有効性0を有する。実装のいくつかにおいて、有効性は0(確実に無効)から1(確実に有効)までの連続する範囲に割り当てられる。実装のいくつかにおいて、たいへん低い見積もられた有効性(例えば、有効性が0.1より小さいもしくは0.25より小さい)を有する凝視は廃棄される。これらの実装において、拡張されたアルゴリズムは標準的なアルゴリズムよりも多くの凝視を維持するが、あるレベルではやはり廃棄される。
説明を単純化するために、真の凝視のみを使用する実装について、用語「凝視」は真の凝視のみを示す。擬似凝視を含む実装について、用語「凝視」はより広く、真の凝視もしくは擬似凝視である注視点セグメントを含む。
いくつかの例において、用語「無効凝視」は擬似凝視を識別するために使用される。実装は、凝視の際に、実行されているアクティビティに基づいて凝視の各々を分類する。この分類は、ヒューリスティックに行われてもよいし、もしくは、機械学習技術を用いることによって行われてもよい。いずれの場合でも、システムは凝視アクティビティクラスのモデルを利用する。凝視の各々について、凝視特徴の対応するセットが決定され、特徴はモデルと比較される。
特徴のセットは凝視自身の特性(例えば、継続時間もしくは推定有効性)、凝視コンテキスト(例えば、前後の凝視からの距離)及びユーザインターフェイスデバイスによって提供される情報(例えば、凝視の間のもしくは付近のキーボード及びマウスイベント)を含むことが可能である。最も適切な適合アクティビティラベルが凝視に割り当てられる。
実装のいくつかはアクティビティラベル「調べる」(理解するために意図的にコンテンツを見る)、「読む」、[ナビゲート」(マウスの移動を含み、要約するために情報の次のピースを探すもしくはUIの異なる部分に注意を移動する)、「パスに沿ってナビゲート」(新しい位置を示すグラフィックエレメントに追随する)、「選択」、[入力」を利用する。アクティビティ分類は、一般的に、注視から推測され得るアクティビティを含む。例えば、ページのどこかにある情報のピースを調べながらユーザがボタンをクリックすると、アクティビティラベルは「調べる」となる。
実装のいくつかは、ユーザのウィンドウ内での(スクロールボックスをドラッグする、もしくは、スクロールホイールを回転することによる)スクロールに対応するアクティビティラベル「スクロール」を含む。実装のいくつかは、アクションを実行するかしないかについてユーザが判定していることを示す「ジャッジ」を含む。実装のいくつかにおいて、アクティビティ分類は、サポートベクターマシン(SVM)もしくはニューラルネットワークなどの標準機械学習方法を利用する。
アクティビティ分類の後、同一のアクティビティに関わる連続的な凝視のグループが生成される。これらのグループは2つの連続する凝視の分類されたアクティビティをチェックすることにより生成される。アクティビティが同一であれば、凝視は同一のグループに入る。連続的に進行し、次の凝視のアクティビティラベルが同一である限り、凝視は同一のグループに入る。アクティビティラベルが同一でなければ、新しいグループが生成され、処理は継続される。
ユーザが特定のアクティビティに関わっている場合、グループは期間を識別する。生成されるアクティビティグループはユーザインターフェイスの領域もしくは印刷ページに適切に適合しないかもしれないし、アクティビティの分類に誤りが生じるかもしれない。
実装のいくつかは、位置及び時間順だけに基づく凝視をクラスタ化する並行ステップを含む。後のステップにおいて、クラスタ及びグループが比較され、調整される。実装のいくつかは凝視クラスタを求める。クラスタは近くに位置する連続する凝視を含む。一般的に、実装は、凝視の時間順が維持されることを要求する。
実装のいくつかは、凝視パターンにおける「ドリフト」を許容する。例えば、ユーザが読む場合、凝視は明確に定義された中心点を有さず、左から右への短い距離を移動する。実装のいくつかは時間順に凝視を連続的に処理することによって凝視クラスタを構築する。
最初のステップにおいて、まず、最初の凝視を含むクラスタが形成される。続くステップの各々で、新しい凝視が検討され、検討された最後の凝視及び最後の凝視を含むクラスタと比較される。新しい凝視は最後の凝視を含むクラスタに含められるか、もしくは新しい凝視が新しい凝視を開始させる。
例えば、ユーザがページのテキストの部分を読んでいて、ページの他の領域に移動し、テキストの最初の部分に戻る場合、例えページの同一の位置であっても、後の凝視は最初の凝視と同一のクラスタに含まれない。新しい凝視が最後の凝視と第1の距離閾値内にある場合、新しい凝視はクラスタに追加される。
新しい凝視が最後の凝視と第1の距離閾値内にない場合、新しい凝視からクラスタの凝視の各々までの距離が計算され、新しい凝視からクラスタの凝視までの最短距離が第2の距離閾値より短い場合、新しい凝視はクラスタに追加される。新しい凝視からクラスタの凝視までの最短距離が第2の距離閾値より短くない場合、新しい凝視は新しいクラスタを開始する。実装のいくつかにおいて、第1の距離閾値及び第2の距離閾値は等しい。
実装のいくつかは併合及び調整ステップを含む。当該ステップにおいて、アクティビティグループ及び凝視クラスタは比較され調整される。アクティビティグループ及び凝視クラスタはセグメントタイプとみなされる。2つのセグメントタイプの境界は比較され、境界の各々を維持し、置き換え、除去することとコストとが関連付けられる。コストは、ヒューリスティックモデルに基づいて、もしくは、機械学習アルゴリズムから導出されるモデルに基づいて構築され得る。コストは、セグメントサイズ、セグメント数、セグメント内の凝視継続時間、セグメント周囲のアクティビティタイプ、ページ上の領域とセグメントの相対的位置、関連領域のサイズなどを含む多くのファクタに基づいてもよい。コストを最小化する構成が維持される。これにより、クラスタもしくはアクティビティグループへの調整が行われる。
実装のいくつかにおいて、グループ及びクラスタの全体構成が共に評価される。全体的に最も適切な結果(例えば、コストが最も低い)を有する構成が選択される。他の実装において、境界一つ毎に調整が連続的に実行される。境界の各々は、コストファンクションもしくは他の経験則によって維持もしくは廃棄され、アルゴリズムは次の境界に移動する。
実装のいくつかは境界を2つ以上ずつ処理するが、全ての境界を一度に処理しない。例えば、実装のいくつかはクラスタとアクティビティグループとが適合している境界の全てを識別する。次に、適合する境界の最も近いペアの間の全ての不適合の境界に調整処理が行われる。アクティビティのシーケンスのいくつかは、単一の凝視を見る場合、認識可能ではない高レベルアクティビティのサインであってよい。
実装のいくつかにおいて、アクティビティのシーケンスは、より高いレベルのアクティビティを示すパターンを見つけるために分析され、より高いレベルのアクティビティに結合され得る。例えば、短期間(例えば、3〜4の凝視)リーディングを含む、テキストをスキミングするアクティビティには、テキストの新しい部分へナビゲートするための凝視及び他の短期間リーディングが続く。
実装のいくつかは可能なより高いレベルのアクティビティを識別するためにストリングマイニング技術を利用する。アクティビティのモデルは保存され、以前求められ割り当てられたユーザアクティビティラベルと突き合わされる。アクティビティセグメントを解析することにより、突合せが行われる。この分析は、保存されたスキミングのサンプルもしくは他のより高いレベルのアクティビティを用いて効率的に実行され得る。
実装のいくつかは、アクティビティのシーケンスを用いるだけでなく、継続時間などのアクティビティの特性(もしくは凝視の特徴)を用いて、適合を判定する。予め計算されたアクティビティシーケンスに加えて、実装のいくつかは自動的によく生じるシーケンスを識別する。
実装のいくつかによれば、方法は1つもしくは複数のユーザインターフェイスデバイス(例えば、キーボード及びマウス)を用いてコンピュータユーザインターフェイスとインタラクションするユーザのユーザアクティビティを分類する。
方法は、1つもしくは複数のプロセッサ及びメモリを有するコンピュータシステムで実行される。コンピュータシステムはユーザのアイトラッキングデータを受信する。アイトラッキングデータは時間順に並んだ凝視のシーケンスを含む。凝視の各々は複数の連続する計測された注視点の各々に対応する。凝視は、凝視検出アルゴリズムを用いて、未処理注視点データから識別される。凝視の各々は、対応する計測された注視点の各々に基づく継続時間及び位置を有する。
シーケンスの凝視の各々について、コンピュータシステムは凝視の複数の特徴を判定する。特徴は1つもしくは複数の凝視の特性、前後の凝視に基づく1つもしくは複数のコンテキスト特徴、及び凝視の間もしくは凝視に近接する時間のユーザインターフェイスデバイスからの情報に基づく1つもしくは複数のユーザインタラクション特徴を含む。コンピュータシステムは複数の特徴によって凝視へのユーザアクティビティラベルを割り当てる。ユーザアクティビティラベルはユーザアクティビティラベルのセット(例えば、調べる、読む、ナビゲート、選択及び入力)から選択される。
実装のいくつかは割り当てを実行するために機械学習を利用する(例えば、サポートベクターマシン(SVM)もしくはニューラルネットワーク)。コンピュータシステムは、次に、1つもしくは複数の推奨を行うために、凝視及び割り当てられたユーザアクティビティラベルを分析する。
実装のいくつかによれば、方法は複数の別個の隣接する領域を含むページ(例えば、複数の領域を有する印刷ページもしくは複数の領域を有するユーザインターフェイスウィンドウ)を見るユーザのユーザアクティビティを分類する。方法は1つもしくは複数のプロセッサ及びメモリを有するコンピュータシステムで実行される。コンピュータシステムはユーザの(例えば、注視点の形態の)アイトラッキングデータを受信する。アイトラッキングデータから時間順に並んだ凝視のシーケンスを検出し得る。凝視は凝視検出アルゴリズムを用いて未処理注視点データから識別される。凝視の各々は対応する注視点の各々に基づく継続時間及び位置を有する。
コンピュータシステムは複数のクラスタに凝視を分割する。クラスタの各々は時間順に並んだ凝視の連続するサブシーケンスを含む。加えて、コンピュータシステムは凝視の特徴もしくは特性(例えば、凝視自身の特性、凝視の各々のコンテキストを記述する特徴、及び凝視の間の1つもしくは複数のユーザインターフェイスデバイスの状態を示す特徴)のセットに基づいて凝視の各々に仮のユーザアクティビティラベルを割り当てる。ユーザアクティビティラベルはユーザアクティビティラベルの所定のセット(例えば、調べる、読む、選択、入力、ナビゲート、パスナビゲート)から選択される。
コンピュータシステムは、凝視を複数のグループに分割するために同一の仮のユーザアクティビティラベルを割り当てられた連続する凝視をグループ化する。クラスタの各々に適合するグループの各々について、コンピュータシステムはグループの各々の凝視の各々に割り当てられた最終ユーザアクティビティラベルとして仮のユーザアクティビティラベルを維持する。
コンピュータシステムは、不適合グループの凝視を含む非重畳改変グループセットを形成するために、領域を用いて、不適合グループと不適合クラスタとを調整する。改変グループの凝視の各々はユーザアクティビティラベルの所定のセットから選択される同一の最終ユーザアクティビティラベルを割り当てられる。コンピュータシステムは、1つもしくは複数の推奨を行うために凝視及び割り当てられた最終ユーザアクティビティラベルを分析する。
同様の参照符号は図面全体に亘って対応する要素を参照する。
図1Aは、本発明の実装のいくつかが動作する環境を例示する。図1Aにおいて、ユーザ102は、コンピュータモニタ108に表示されているコンピュータユーザインターフェイス112とインタラクションしている。ユーザ102はユーザの目104でユーザインターフェイス112を見て、キーボード114及びマウス116などの1つもしくは複数のユーザインターフェイスデバイスを用いて、ユーザインターフェイスとインタラクションする。ユーザ102の目の動きを追跡するために、様々なアイトラッキングデバイスを使用することが可能である。例えば、実装のいくつかは、コンピュータモニタ108に装着可能な赤外線カメラ106及び赤外線光の組み合わせを含む。
実装のいくつかは、赤外線光を利用しないカメラを使用する。一般的に、カメラは、最も適切に目を含むビューを取得するために、モニタの下方に装着されている。実装のいくつかは、カメラ106と別個の赤外線光とを利用するが、アイトラッキングの正確さを最高にするために、一般的に、カメラ106と赤外線光とは近接させられる。
図1Bは、本発明の実装のいくつかが動作する図1Aとは異なる環境を例示する。この実装において、ユーザ102は、コンピュータモニタ108に表示されているのではない印刷ページ120を見ている。この実装では、ユーザは、目の動きを追跡するための1つもしくは複数のデジタルイメージセンサを含む、特殊な眼鏡118を装着している。
実装のいくつかにおいて、眼鏡118は、後述する分類タスクを実行するコンピューティングデバイスである。他の実装では、眼鏡118はデータを収集し、収集したデータを別個のコンピューティングデバイスに(例えば、WiFi接続を介して)転送する。実装のいくつかにおいて、眼鏡118は、目の動きを追跡するために使用される赤外線光を含む。アイトラッキング眼鏡の例は、トビーテクノロジー社のトビーグラスアイトラッカー(登録商標)を含む。
印刷ページ120は、テキスト領域130−1及び130−3、及び画像領域130−2及び130−4を含む、複数の別個の領域130を含む。アイトラッキングには多くの異なる技術が使用されており、ここで開示される技術はいずれか特定のアイトラッキング技術に依存しない。
アイトラッキングの技術の一つは、図2A、図2B及び図2Dに例示する赤外線光の角膜反射を利用する。図2A及び図2Bは、グリント(明るい領域)204及び瞳孔202を含む同一の目104を例示する。図2Aで、アイトラッキングデバイスは水平グリント位置206及び水平瞳孔位置208Aを識別し、瞳孔オフセット210Aを計算する。
図2Bで、グリント204は同一の水平グリント位置206を有し、水平瞳孔位置208Bは変化している。新しい瞳孔オフセット210Bは図2Aのオフセット210Aよりも長い。デバイスは、目104が見ている位置を追跡することが可能である。同様の技術を(図示しない)垂直方向のオフセットにも適用することが可能である。
図2Dは、実際の人の同じ目104、瞳孔202及びグリント204を示す。図2Cの上図は、アイトラッキングデバイスによって収集された未処理データを例示する。ユーザ102は、印刷ページ120上のもしくはユーザインターフェイスページ112上の領域442の部分210のテキストを読んでいる。
アイトラッキングデバイスは、一般的に、一定頻度(例えば、60注視点毎秒)で計測値を収集し、瞬間的な注視点212を識別する。人の注視は、目が比較的静止している期間である凝視と、目がより早く動いている凝視と凝視との間の期間であるサッカードと、に分離することが可能である。経験的なデータに基づけば、凝視は、一般的にサッカードよりも長い。凝視は、最短継続時間が80ミリ秒〜100ミリ秒、一般的には、約250ミリ秒であり、サッカードは、一般的に80ミリ秒より短い。
図2Cの下図に例示するように、凝視検出アルゴリズムは注視点212を採取し、凝視214を決定する。図2Cの下図において、凝視214−1、214−2、214−3、214−4、及び214−5の5個がラベル付けされる。注視点212の全てが凝視214に割り当てられるのではない。例えば、図2Cの下図の注視点212−1はいずれの凝視にも割り当てられない。
凝視の注視点は時間的に連続している。凝視を識別するアルゴリズムは、一般的に、ばらつきベース(すなわち、凝視の注視点のばらつきはあまり大きくなり得ない)もしくは速度ベース(すなわち、連続する注視点の間の速度はあまり速くなり得ない)である。これらの技術の双方は、注視点がばらつきもしくは速度に使用される閾値に適合しない場合、いくつかのデータを廃棄するように導き得る。
図3は、ユーザインターフェイスウィンドウもしくはウェブページ112の領域302を例示する。このウィンドウ112において、メニューバー302−1及びツールバー302−2があり、これらのバーは、一般的に、所定のタスクを実行するための小さいグラフィックアイコン(例えば、「保存」アイコンもしくは「印刷」アイコン)を含む。さらに、タイトル領域302−3、複数のボタン領域302−6、302−7、302−8、302−9を含む。ウィンドウの多くは、領域302−4、302−5、302−10、302−12などのテキスト領域を含む。ユーザインターフェイスウィンドウ112は、一般的に、領域302−11、302−13、302−14などのような画像領域を含む。領域302は、手動で識別されてもよいし、コンピュータアルゴリズムを用いて識別されてもよい。
図4は、実装のいくつかによる、コンピュータデバイス400を例示するブロック図である。コンピューティングデバイス400は、デジタル画像センサ416を含むデスクトップコンピュータ、ラップトップコンピュータ、モバイルデバイス、もしくは、リモートセンサによって収集された凝視データ(もしくは未処理注視データ)へアクセス可能なサーバコンピュータであってよい。コンピューティングデバイス400は、一般的に、1つもしくは複数の処理ユニット(CPU)402、1つもしくは複数のネットワークもしくは他の通信インターフェイス404、メモリ418、及びこれらの構成要素を相互に接続する1つもしくは複数の通信バス412を含む。通信バス412はシステム構成要素間の通信を相互に接続し制御する回路(チップセットともいう)を含んでいてもよい。
コンピューティングデバイス400は、ディスプレイデバイス408(例えば、ディスプレイスクリーン108)を含むユーザインターフェイス406及び入力デバイス/機構410(例えば、キーボード114、マウス116、タッチスクリーン、物理的ボタンなど)を含むユーザインターフェイス406を含んでもよい。
実装のいくつかにおいて、コンピューティングデバイス400は、目の動きを追跡するために使用される赤外線光414を含む。コンピューティングデバイス400は、ユーザの目104の画像をキャプチャするために使用されるデジタル画像センサ416を含む。
実装のいくつかにおいて、デジタル画像センサ416は赤外範囲の画像を撮影するが、他の実装では、デジタル画像センサ416はスペクトルの可視部分の画像を撮影する。実装のいくつかにおいて、赤外線光414及び/もしくはデジタル画像センサ416はコンピューティングデバイス400から離隔して配置されている。
メモリ418は、DRAM、SRAM、DDR RAMもしくは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。また、メモリ418は、1つもしくは複数の磁気ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイスもしくは他の不揮発性ソリッドステートストレージデバイスなどの不揮発性メモリを含んでもよい。メモリ418は、CPU402から離隔して配置される1つもしくは複数のストレージデバイスを含んでいてもよいが、必須ではない。メモリ418、もしくは、代替的に、メモリ418の不揮発性メモリデバイスは、コンピュータ可読記録媒体を含む。
実装のいくつかにおいて、メモリ418は以下のプログラム、モジュール及びデータ構造もしくはプログラム、モジュール及びデータ構造のサブセットを記憶する。
●オペレーティングシステム420。オペレーティングシステム420は、様々な基本システムサービスを扱うためのプロシージャ及びハードウェア依存タスクを実行するためのプロシージャを含む。
●通信モジュール422。通信モジュール422は、(有線もしくは無線の)1つもしくは複数の通信インターフェイス404及びインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンネットワークなどの1つもしくは複数の通信ネットワークを介して他のコンピュータシステムとコンピューティングデバイス400とを接続するために使用される。
●ユーザインターフェイスモジュール424。ユーザインターフェイスモジュール424は入力デバイス410を介してユーザからコマンドを受信し、ディスプレイデバイス408のユーザインターフェイスオブジェクトを生成する。
●ウェブブラウザ426。ウェブブラウザ426は、リソース、ウェブページ及びウェブアプリケーションへの通信ネットワークを介したユーザのアクセスを可能とする。
●凝視検出モジュール428。凝視検出モジュール428は、注視点212を収集し(図2Cの上図)、凝視214のセットを識別する(図2Cの下図)。凝視検出モジュールは、一般的に、ばらつきアルゴリズムもしくは速度アルゴリズムを使用する。実装のいくつかにおいて、基本凝視検出アルゴリズムは凝視の各々に関連する有効性計測値を出力するように拡張される。実装のいくつかにおいて、拡張凝視検出アルゴリズムはより多くの「凝視」を出力する。擬似凝視が真の凝視と共に含まれるためである。
●凝視分類モジュール430。凝視分類モジュール430については、図5、図8A〜8Dに関連して以下で詳述する。
●凝視クラスタ化モジュール432。凝視クラスタ化モジュール432は、図6、図8A〜8Dに関連して以下で詳述する。
●併合・適合モジュール434。併合・適合モジュール434は、凝視分類モジュール430によって決定される凝視グループ452と、凝視クラスタ化モジュール432によって決定されるクラスタ454と、を結合する。併合・適合モジュール434は、凝視クラスタ454及び凝視グループ452の間の不適合の調整を支援するために領域442を利用する。併合・適合モジュール434については、図6、図7A〜7D、図8A〜8Dに関連して以下で詳述する。
●アクティビティシーケンスモジュール436。アクティビティシーケンスモジュール436は、調整されたアクティビティ分類を利用し、より低いレベルのユーザアクティビティのより長いパターンに基づいて、より高いレベルのアクティビティを識別する(例えば、領域のテキストの他の部分への動きがところどころにあるリーディングの短いスティント(割り当てられた仕事)に基づいて領域442のテキストのユーザによるスキミングを識別する)。アクティビティシーケンスモジュール436は、図6、図8A〜8Dに関連して、以下で詳述する。
●1つもしくは複数のデータベース438。データベース438は、ソフトウェアモジュール428、430、432、434及び436によって利用されるデータを保存する。データベース438は、ユーザ102によって閲覧される印刷ページ120、ウェブページ112、ユーザインターフェイスウィンドウ112、もしくは他のページを含む1つもしくは複数のページ440に関する情報を保存する。ページ440の各々は、1つもしくは複数の領域442を含み、領域442に関する情報はデータベース438に保存される。領域442は、ページ440の論理的な区画である。論理的な区画は、(図1Bに例示する)印刷ページ120の領域130もしくは(図3に例示する)ユーザインターフェイスウィンドウ112の領域302などのような、隣接し重畳しないページ440の部分である。領域442は、一般的に矩形であるが、矩形に限定されない。領域442は対象領域すなわちROIともいわれる。データベース438は、ユーザアクティビティラベル444の所定セット及びラベル444に関連する情報を保存する。
実装のいくつかにおいて、ユーザアクティビティラベル444の所定セットは「調べる」、「読む」、「ナビゲート」、「入力」、「選択」を含む。これらは、低レベルアクティビティともいわれる。これらは、個別の凝視の間に生じることを記述しているからである。(アクティビティシーケンスモジュール436は、凝視のシーケンスに高レベルユーザアクティビティを割り当てる。)個別の凝視へのユーザアクティビティラベル444の割り当ては、図5、図8A〜8Dに関連して、以下で詳述する。
データベース438は、凝視214を識別するために凝視検出モジュール428によって使用される注視点212を保存する。データベース438は、凝視検出モジュール428によって決定された凝視214を保存する。データベース438は、凝視の継続時間、凝視の位置(例えば、凝視を構成する注視点の重心)、及び凝視の有効性を含む凝視214の各々に関連する基本凝視特性446のいくつかを保存する。
データベース438は、凝視214の各々に対応する凝視特徴448のセットを保存する。図5、図8A〜8Dに関連して詳述するように、凝視特徴は、凝視214の特性(例えば、継続時間)に固有であってよく、先行のもしくは後続の他の凝視(例えば、最近の凝視もしくは後続の凝視の継続時間)に基づいて求められてもよく、凝視に関連するユーザのインタラクション(例えば、凝視の間にマウスボタンが押された)を識別してもよい。図5及び図8A〜8Dは、凝視214にユーザアクティビティラベル444を割り当てるために特徴をどのように使用するかを示す。
データベース438は、凝視分類モジュール430によって決定されたように、凝視214の各々に割り当てられたユーザアクティビティラベル450を保存する。データベース438は割り当てられたユーザアクティビティラベル450に基づく凝視グループ452を保存する。
凝視グループ452の決定は、図6及び図8A〜8Dに関連して、以下で詳述される。データベース438は、凝視クラスタ化モジュール432によって決定される凝視クラスタ454を保存する。凝視クラスタは、図6、図8A〜8Dに関連して、以下で詳述される。
上記識別された構成要素の各々は、1つもしくは複数の上記メモリデバイスに保存されてもよい。また、上記識別された構成要素の各々は、上記機能を実行するための命令セットに対応してもよい。命令セットは、1つもしくは複数のプロセッサによって実行され得る(例えば、CPU402)。上記識別されたモジュールもしくはプログラム(すなわち、命令セット)は別個のソフトウェアプログラム、プロシージャ、もしくはモジュールとして実装されなくてもよい。これらのモジュールの様々なサブセットが結合されてもよいし、様々な実装において再構成されてもよい。
実装のいくつかにおいて、メモリ418は上記識別されたモジュール及びデータ構造のサブセットを保存する。さらに、メモリ418は、さらに、上記されていないモジュール及びデータ構造を保存してもよい。
図4はコンピューティングデバイス400を示しているが、図4は、ここで記述される実装の構造的な概要とういうよりは、1つもしくは複数のコンピューティングデバイスに存在してよい様々な特徴の機能的な記述を意図している。実用的には、また、当業者によって認識されるであろうように、別個に示されるアイテムは結合されてもよいし、アイテムのいくつかは別個にされてもよい。
例えば、データ及びプロセスの全ては単一のデバイス400(例えば、ユーザのコンピュータ)に存在してもよいし、プロセスは2つ以上のコンピューティングデバイス400(例えば、未処理データを収集するために主に動作するユーザデバイス及び凝視の分析を行うバックエンドサーバ)に別個に存在してもよい。ここで記述される方法の各々は、コンピュータ可読記憶媒体に保存され、コンピューティングデバイス400の1つもしくは複数のプロセッサによって実行される命令によって制御されてもよい。図(図5、図6、図7A〜7D、図8A〜8D)に示される動作の各々は、コンピュータメモリもしくはコンピュータ可読記録媒体に保存されている命令に対応していてもよい。
図5は、実装のいくつかに関連して個別の凝視214を分類するための凝視分類モジュール430によって実行されるプロセスを例示する。プロセスは開始され(502)、凝視214を検出する(504)。
凝視は、位置及び継続時間を含む凝視基本特性446のいくつかを有する。位置は、一般的に、ユーザ102が閲覧しているページ440と相対的に特定される(例えば、ページ440の座標x及びy)。
実装のいくつかにおいて、凝視基本特性446は有効性測定値を含む。実装のいくつかにおいて、有効性測定値は2値であることが適切であり、1は真の凝視を識別するために使用され、0は擬似凝視を示すために使用される。実装のいくつかにおいて、真の凝視である尤度を示す有効性測定値は連続的な範囲(例えば、0〜1)を有する。実装のいくつかにおいて、有効性は確率として特定される。
凝視214の各々について、凝視214に関連する計測量もしくは計算量である凝視特徴448のセットが存在する。
実装のいくつかにおいて、凝視特徴448の各々は3つのタイプの1つに分類される。凝視そのものの特性、凝視の周辺に基づく環境のいくつかを示す値、凝視の間の様々なユーザインターフェイスデバイスの状態を示す値、の3つである。第3のカテゴリは、一般的に、閲覧されているページ440が印刷ページ120である場合、関係ない。
図5で、これら3つのタイプから特徴448を収集/計算することが並列的に示されている(506、508、510)が、これらは直列的に収集/計算されてもよい。凝視分類モジュール430は、凝視214自体に対応する特徴448である凝視特性セットを識別する(506)。
これらの特性のいくつかは、凝視214の継続時間もしくは凝視214の有効性などのような凝視基本特性である。他の凝視特性は、凝視214に対応する注視点212間の平均距離を含む。一般的に、注視点の間の距離は直列的に連続する注視点間のみが計測される。
実装のいくつかは、注視点の間の距離の分散を含む。他の凝視特性は、凝視の間計測された瞳孔サイズの分散である。実装のいくつかは、これらの特性のサブセットもしくは凝視の幅もしくは広がりなどの他の凝視特性による補足を利用する。
凝視分類モジュール430は、以下のいずれかもしくは以下の変形を含む複数の凝視環境特徴を判定する(508)。
●凝視214から直後の凝視への距離
●凝視214から直前の凝視への距離
●直後の凝視の継続時間
●直前の凝視の継続時間
●先行する5個の凝視の連続する凝視間の平均距離
●先行する5個の凝視の連続する凝視間の距離の分散
●後続する5個の凝視の連続する凝視間の平均距離
●後続する5個の凝視の連続する凝視間の距離の分散
●先行する5個の凝視の連続する凝視間の最短距離
●先行する5個の凝視の連続する凝視間の最長距離
●後続する5個の凝視の連続する凝視間の最短距離
●後続する5個の凝視の連続する凝視間の最長距離
これらの特徴448は、凝視214を分類する際に支援することが可能な先行する、もしくは、後続する凝視に関する様々な計測可能なファクタを例示する。凝視分類モジュール430は、凝視214の間の、もしくは、凝視214に近接する時刻のユーザインターフェイスデバイスの状態に基づいてユーザインタラクション特徴のセットを決定する(510)。ユーザインターフェイスデバイスは、一般的に、キーボード及びマウスなどのコンピューティングデバイス400の入力デバイス410を含む。
以下の様々なサブセットを含む、ユーザインタラクション特徴が利用され得る。
●凝視の間のマウスカーソルの速度
●凝視の間の凝視へのマウスカーソルの平均距離
●凝視の間の凝視へのマウスカーソルからの距離の分散
●凝視の間のマウスカーソルと凝視との間の最短距離
●凝視の間のマウスカーソルと凝視との最長距離
●凝視の注視点の各々へのマウスカーソルからの平均距離(カーソルの位置は注視点の各々の計測と同一時点で識別される。)
●凝視の前の時間的に最も近いマウスイベントの際のマウスカーソルの位置と凝視の位置との間の距離
●凝視の後の時間的に最も近いマウスイベントの際のマウスカーソル位置と凝視の位置との間の距離
●凝視の間にマウスボタンが押されたか否か
●凝視の間にマウスボタンが押し下げられたか否か(すなわち、凝視の前にボタンが押され、凝視の少なくとも部分の間押し下げられていたか否か)
●凝視の間、マウスボタンが離されたか否か
●最近のマウスイベントと凝視の開始との間の時間長
●凝視の最後と凝視の後最も時間的に近いマウスイベントとの間の時間長
●最近のマウスイベントの際のマウスカーソルと凝視の位置との間の距離
●凝視の位置と凝視の後の次のマウスイベントの位置との間の距離
●凝視(中心)の位置と凝視の間マウスボタンが押されたときのマウスカーソルとの間の距離
●凝視の間のタイピング速度
●凝視の間にタイプされた文字数
●すぐ先行する5個の凝視の間の平均タイピング速度
●すぐ後続する5個の凝視の間の平均タイピング速度
ユーザインタラクション特徴の上記リストは全てを網羅することを意図していない。上記リストは、凝視214を分類することに関連する可能性があるユーザインタラクションを計測する様々な特徴を例示している。クリック、マウスダウン、マウスアップなどの多岐に亘るマウスイベントがある。
また、コンピュータマウスのいくつかは左及び右ボタンを含むため、特徴は2つのタイプのボタンの押下の間で区別され得る。さらに、コンピュータマウスの多くがスクロールホイールを含む。従って、特徴は、凝視の間にスクロールホイールが使用されたか否か、スクロールの長さなどを計測するために利用され得る。
さらに、コンピューティングデバイスのいくつかはジョイスティックもしくは他の入力デバイスを利用する。例えば、アイトラッキングによるジョイスティックイベントの追跡は、ビデオゲームを評価するために有用であり得る。ビデオゲームを評価することは、静的な(もしくはほぼ静的な)領域を有するユーザインターフェイスを評価することよりも複雑である。ユーザインタラクション特徴は、ビデオストリームから検出されるジェスチャから導出され得る。
実装は、特徴448の3つのカテゴリにおいて上記識別される特徴の全てまたはいずれかのサブセットを利用し得る。さらに、実装のいくつかは特徴448の全てもしくはサブセット、及び、明示的に上記されていないさらなる特徴448による補足を選択する。凝視特徴448の指定されたセットが識別され/決定されると、凝視分類モジュール430は凝視214にユーザアクティビティラベル444を割り当てる(512)。
割り当てられたユーザアクティビティラベル450はユーザアクティビティラベル444の所定セットから選択される。実装のいくつかにおいて、凝視へのユーザアクティビティラベル444の割り当ては、機械学習アルゴリズムを利用する。入力特徴が既知であり、特徴の分類が既知である以前のデータのトレーニングセットを用いて、機械は比較的高精度に凝視を分類するためにトレーニングされ得る。
実装のいくつかにおいて、機械学習はサポートベクターマシン(SVM)を利用する。実装のいくつかにおいて、機械学習はニューラルネットワークを利用する。実装のいくつかにおいて、ユーザアクティビティラベルは、機械学習ではなく、決定的アルゴリズムを用いて、凝視へ割り当てられる。機械学習を使用しない実装のいくつかは、より少ない凝視特徴448を使用する。
図5に示すプロセスフローは、単一の凝視214の分類を例示する。ユーザアクティビティラベル444が凝視214に割り当てられると(512)、プロセスは終了する(514)。図5に例示する基本プロセスは、以下で図6に例示されるように、一般的に、多くの凝視に適用される。凝視特徴に基づく分類プロセスの詳細は繰り返されない。
図6は、凝視214を分類するプロセスを例示する。図6のプロセスは、2つに枝分かれするアプローチに図5の方法を拡張する。プロセスが開始すると(602)、凝視のシーケンスを検出する(602)。
上記したように、凝視を検出するプロセスは多くの既知アルゴリズムを利用することが可能である。実装のいくつかにおいて、既知のアルゴリズムは凝視の各々による有効性計測値を提供することにまで拡張される。
図5に例示されるように、凝視分類モジュール430は、凝視214の各々に関連付けられている凝視特徴448を用いて、凝視214の各々にユーザアクティビティラベルを割り当てる(608)。ユーザアクティビティラベル444が凝視214の各々に割り当てられると、凝視分類モジュール430は、割り当てられたユーザアクティビティラベル450に基づいて重畳しないグループシーケンスに凝視214をグループ化する(610)。
実装のいくつかにおいて、グループ化は、連続する凝視が同一のユーザアクティビティラベル450を有するか否かのみに基づいている。同一のユーザアクティビティラベルを有する場合、凝視214は同一のグループに含まれる。異なるユーザアクティビティラベルを有する場合、凝視214は異なるグループに含まれる。このプロセスは、凝視の区画を生成する。区画では、凝視の各々が必ず1つのグループに入りグループの各々の凝視は時間的に連続している。
実装のいくつかにおいて、グループ化は、凝視が閲覧されているページ440の同一の領域442に位置しているか否かを考慮する。これらの実装において、割り当てられたユーザアクティビティラベルが同一であり、2つの凝視が同一の領域442に存在する場合のみ、2つの連続する凝視が同一のグループに配置される。条件に合致しない場合、凝視は異なるグループに配置される。このプロセスによって、凝視は分割される。凝視をグループ化する場合、領域を考慮しない実装よりもグループ数は大きくなる可能性がある。
別個の独立したステップとして、凝視クラスタ化モジュール432は凝視セット214をクラスタ454に分割する(606)。実装のいくつかにおいて、クラスタ454は時間順に凝視を順次処理することによって形成される。まず、最初の凝視214が最初のクラスタ454であるとみなす。後続の凝視214の各々は、先行する凝視214を含む先行するクラスタ454に追加されるか、もしくは、新しいクラスタ454を開始する。
実装のいくつかにおいて、後続の凝視214から直前の凝視までの距離が閾値より短い場合、次の凝視214は先行するクラスタ454に追加される。これは、一般的に左から右に読まれ、テキストの1つのセグメントを読む間の全ての凝視は共にクラスタ化されるべきである、ことによって説明される。その他の実装において、後続の凝視214が先行のクラスタ454の凝視のいずれかの距離の閾値より小さい場合、後続の凝視214は先行のクラスタ454に追加される。
実装のいくつかは、先行するクラスタ454に後続の凝視214を追加するか否か判定するために2つのアイデアを結合する。まず、後続の凝視214が直後の凝視から第1の閾値距離範囲内であれば、後続の凝視は先行するクラスタ454に追加される。
最初の計算に基づいて先行するクラスタに追加されないならば、凝視クラスタ化モジュール432は、後続の凝視214及び先行するクラスタ454の凝視のいずれかの間の最短距離を計算する。最短距離が第2の閾値距離よりも短い場合、後続の凝視214は先行するクラスタ454に追加される。後続の凝視214が2つのステップのいずれかに基づいて先行するクラスタ454に追加されない場合、新しいクラスタが開始される。新しいクラスタは、最初、後続の凝視のみを含む。
このプロセスは、凝視セット全体にわたって順に継続される。凝視の各々について、1つのクラスタのみがあるものとみなされる。クラスタは時間的に連続する凝視を含む。従って、凝視の各々は、直前のクラスタに追加されるか、もしくは、新しいクラスタを開始する。このプロセスは、凝視の各々を1つのクラスタだけに含める。従って、クラスタは凝視の区画を形成する。
凝視グループ452及び凝視クラスタ454が判定された後、併合・適合モジュール434はクラスタ454と領域443の環境におけるグループ452とを比較し、グループの最終セットを形成する。クラスタ454がグループ452と完全に適合する場合、グループは変更されない。また、グループの凝視の各々は、その割り当てられたユーザアクティビティラベル450を維持する。適合しないグループ及び適合しないクラスタについては、併合・適合モジュール434は差異に折り合いをつける。
図7A及び図7Bは、このプロセスの2つの例を示す。図7Aにおいて、クラスタ数13は、テキスト1−1のラベルを付された単一の領域と一致する。しかしながら、行702と対応する凝視については、凝視は、元々ユーザアクティビティラベル「ナビゲート(navigating)」704に割り当てられていた。
割り当てられたユーザアクティビティラベル704が正しくないと結論付ける複数の理由がある。クラスタが領域と一致しないだけでなく、行702の前及び後の割り当てられたユーザアクティビティラベルは「読む(reading)」と識別される。さらに、「ナビゲート」ラベルを有する凝視は1つだけである。従って、併合・適合モジュール434は、行702に対応する凝視を「読む」706と再分類する。
図7Bにおいて、長いクラスタ番号23がある。クラスタ(テキスト(Text)1−5、リンク(Link)1−5、及びテキスト1−6)に関連する領域に割り当てられたユーザアクティビティラベル(領域テキスト1−5は「読む」、領域リンク1−5は「選択(selecting)」、領域テキスト1−6は「ナビゲート」)に基づいて、併合・適合モジュール434は領域及び割り当てられたユーザアクティビティラベルに対応する3つのクラスタにクラスタ番号23を分割する。
行730及び732について、併合・適合モジュール434はクラスタ割り当て710(クラスタナンバー23)を新しいクラスタ712(クラスタナンバー23.1)に変更する。さらに、行734について、併合・適合モジュール434はクラスタ割り当て714(クラスタナンバー23)を新しいクラスタ716(クラスタナンバー23.2)に変更する。この例は、クラスタが、単一の凝視(例えば、行734に対応する凝視)を含むことが可能であることを示す。
実装のいくつかにおいて、併合・適合モジュール434は凝視グループ452及び凝視クラスタ454の適合しない境界を処理する。これは、図7C及び7Dに例示される。図7C及び図7Dは、図7A及び図7Bに示される同一の凝視クラスタ及び凝視グループを示す。例えば、図7Cにおいて、クラスタ及びグループは、クラスタ及びグループが異なるとしても、750及び756に境界があることに合意する。問題は、グループの境界ではあるがクラスタの境界ではない、適合しない境界752及び754を維持するか、除去するかである。
実装のいくつかにおいて、適合しない境界(例えば、752及び/もしくは754)の1つを維持するか除去するか決定するために、複数のファクタに基づくコスト/利益関数を使用する。境界752について、求められたグループを維持することは、利益である。しかしながら、境界を維持することがクラスタの分割及び領域の分割の双方を要求するかもしれない。コスト/利益分析においては、図7Aに関連して上記したように、境界752及び754を廃棄することが適切である。
図7Dにおいて、クラスタ及びグループは境界760及び766には合意するが、境界762及び764は適合しない。この場合、図7Bに関連して上記したように、凝視が検出された領域は、境界762及び764の維持に有利に働く。含まれる領域の近接性、適合しない境界を維持するか廃棄するかに基づくグループの各々に含まれる凝視の数(例えば、大き過ぎず小さ過ぎないグループのプリファランス)及び境界の近傍で識別されたユーザアクティビティラベルなどの追加的なファクタがコスト/利益分析に含まれても良い。
調整プロセスにおいて、割り当てられたユーザアクティビティラベルのいくつかは変更されてもよい。凝視グループが併合・適合モジュール434によって変更されない場合、グループの凝視の各々に割り当てられたユーザアクティビティラベルは維持される。例えば、図7Bにおいて、クラスタは凝視グループに適合するように変更される。凝視グループは何れも変更されないので、割り当てられたユーザアクティビティラベルは全てそのまま残る。
凝視グループが変更された場合、凝視のいくつかの割り当てられたユーザアクティビティラベルを変更してもよい。これは図7Aに例示されている。行702の凝視に割り当てられたラベルは「ナビゲート」704から「読む」706に変更される。
実装のいくつかにおいて、変更されたグループのユーザアクティビティラベルの割り当ては、以前割り当てられたユーザアクティビティラベルの「多数決」に基づく。例えば、図7Aにおいて、変更されたグループは7つの凝視を有し、7つの凝視の内、6個がユーザアクティビティラベル「読む」を割り当てられている。この場合、行702の7番目の凝視には、「読む」706ユーザアクティビティラベルが割り当てられる。
図6に戻ると、併合・適合モジュール434がグループ452とクラスタ454とを調整した後、凝視及び凝視に割り当てられたユーザアクティビティラベルが分析され推奨が生成される(614)。実装のいくつかにおいて、推奨はページのレイアウトに関連する(614)。
実装のいくつかにおいて、推奨は、ユーザのために、リアルタイムに近い時間で提供される。例えば、アイトラッキング分析はユーザがコンピュータユーザインターフェイスを最適に使用していないことを示し、ユーザが行うべきことを指示する。
実装のいくつかにおいて、併合・適合モジュール434はグループ452とクラスタ454とを調整した後、アクティビティシーケンスモジュール436はより高いレベルのアクティビティにユーザアクティビティを分類する(616)。凝視分類モジュール430は凝視の各々に個別にユーザアクティビティラベル444を割り当て、アクティビティシーケンスモジュール436はより高いレベルで分類されることが可能なより低いレベルのアクティビティのパターンを識別する。例えば、実装のいくつかは、目の動きの異なるパターンに基づいて、ユーザがコンテンツを読んでいるのか、目を通しているだけなのかを区別することが可能である。
実装のいくつかにおいて、アクティビティ分類モジュール436は分析の凝視特徴446の1つもしくは複数を利用する。実装のいくつかにおいて、アクティビティシーケンスモジュール436は、分析において領域442を利用する。実装のいくつかにおいて、データベース438は、アクティビティシーケンスモジュール436がユーザアクティビティと比較するユーザアクティビティパターンのセットを保存する。実装のいくつかにおいて、以前のアクティビティパターンは、機械学習アルゴリズムへの入力として使用され、アクティビティシーケンスモジュール436は、トレーニングされた機械を高レベルアクティビティを分類するために使用する。
図8A〜図8Dは、実装のいくつかによる凝視を分類する(802)ためのフローチャート800である。処理は、1つもしくは複数のプロセッサ及びメモリを有するコンピューティングデバイス400によって実行される(804)。
コンピューティングデバイス400は、1つもしくは複数のユーザインターフェイスデバイス(例えば、入力デバイス410)を用いて、コンピューティングデバイス400とインタラクションするユーザのアイトラッキングデータを受信する(806)。アイトラッキングデータは、時系列に並んだ凝視のシーケンスである。凝視214は、図2C及び図4に関連して上記したように、凝視検出モジュール428を用いて、未処理注視点212のシーケンスから判定される。
実装のいくつかにおいて、ユーザインターフェイスデバイスはキーボード及びマウスを含む(808)。実装のいくつかにおいて、コンピューティングデバイス400は、図3に例示したように、複数の別個の隣接する領域を有するページを表示する。
図2C及び図4に関連して上記したように、凝視の各々は、複数の隣接する測定された注視点の各々に対応する(812)。凝視検出モジュール428は、対応する測定された注視点212の各々に基づいて、継続期間及び位置の各々を凝視214に割り当てる(814)。凝視の注視点は時間的に連続しているため、実装のいくつかは、凝視の最初及び最後の注視点の間の時間差として継続時間を決定する。実装のいくつかにおいて、凝視の位置は重心である。
コンピューティングデバイス400は、1つもしくは複数のユーザインターフェイスデバイスからユーザインタラクションデータ(816)も受信する。ユーザインターフェイスデバイスイベントについてのユーザインタラクションは、一般的に、イベントの時間及びイベントが何であるか(例えば、マウスの移動)の双方を含む。継続時間(例えば、マウス移動もしくはマウススクロール)を有するイベントについて、継続時間も、一般的に、インタラクションデータに含まれる。
シーケンスの凝視の各々について(818)、凝視分類モジュール430は、複数の凝視の特徴を判定する(820)。ここで、「特徴」とは、凝視に対応する適切に定義された特性であり、量的に計測可能であってよい。図5に関連して上記されたように、特徴は、凝視の直接的な特性である特徴、凝視のコンテキストに関する情報を提供する特徴、コンピューティングデバイスとのユーザインタラクションに基づく特徴、の3つのカテゴリに分類される。
凝視の複数の特徴は、凝視の1つもしくは複数の特性を含む(822)。実装のいくつかにおいて、凝視の1つもしくは複数の特性は、凝視の継続時間、凝視に対応する連続計測注視点間の距離の変動、凝視の間に測定される人の瞳孔サイズの変動から選択される少なくとも1つの特性を含む(824)。凝視についての複数の特徴は、受信したユーザインタラクションデータに基づく1つもしくは複数のユーザインタラクション特徴も含む(826)。
実装のいくつかにおいて、1つもしくは複数のユーザインタラクション特徴は、凝視の間のマウスカーソルの平均速度、凝視の間のマウスカーソル位置への凝視位置からの平均距離、凝視の間のマウスボタンの状態、及び、凝視の間にマウスボタンが押された場合の凝視位置とマウスカーソル位置との間の距離から選択される少なくとも1つのユーザインタラクション特徴を含む(828)。これについては、実装のいくつかが使用するユーザインタラクション特徴のより大きいリストを含む図5に関連してより詳細に上記した。
実装のいくつかにおいて、ユーザインタラクション特徴は、キーボードアクティビティに基づく特徴及びマウスアクティビティに基づく特徴の双方を含む(830)。実装のいくつかにおいて、複数の特徴は、凝視位置と直前の凝視位置との間の距離、凝視位置と直後の凝視位置との間の距離、直前の凝視の継続時間、及び、直後の凝視の継続時間から選択される1つもしくは複数のコンテキスト特徴を含む(832)。
コンテキスト特徴のより拡張した例示的なリストは図5に関連して提供される。凝視分類モジュール430は、複数の特徴を用いて、ユーザアクティビティラベルと凝視とを関連付ける(834)。ユーザアクティビティラベルは、ユーザアクティビティラベルの所定セットから選択される(836)。ラベルは、ユーザがコンピュータ画面(もしくは、他の実装では、印刷ページ)とインタラクションする一般的な方法で定義されるため、リストは一般的に小さい(例えば、9以下のラベルを含む)。例えば、実装のいくつかにおいて、ユーザアクティビティラベルの所定のセットは、調べる、読む、ナビゲート、選択、及び、入力、を含む。
実装のいくつかにおいて、ユーザアクティビティラベルと凝視とを関連付けることは、サポートベクタマシンもしくはニューラルネットワークなどの機械学習を使用する(840)。これらの実装は、特徴セット(例えば、上記で識別された3つのタイプの40の特徴)を選択する。特徴の各々が、特徴ベクトルの成分(例えば、40の成分)に対応する。特徴及びユーザアクティビティの双方が既知であるトレーニングセットに基づいて、機械は、特徴と特定のユーザアクティビティとを相互に関連付ける方法を学習する。
実施形態のいくつかにおいて、同じ割り当てられたユーザアクティビティラベルを有する連続する凝視はグループ化される(842)。従って、凝視は複数のグループに分割される。実装のいくつかにおいて、凝視は、第2の別個の技術を用いて、複数のクラスタにも分割される(844)。詳細は、図6に関連して上記した。
クラスタの各々は、時間順の凝視の連続的なサブシーケンスを含む(844)。実装のいくつかにおいて、複数のクラスタに凝視を分割することは、クラスタを構築するために時間順に凝視を処理することを含む(846)。処理は、時間順で最初の凝視を含む最初のクラスタから開始される。クラスタ化アルゴリズムは、一般的に、ユーザアクティビティラベルもしくはユーザアクティビティラベルを割り当てるために使用された特徴を利用しない。
実装のいくつかにおいて、最初の凝視後の凝視の各々について(848)、3つのルールセットに基づいて、凝視前のクラスタに付加されるか、もしくは、新しいクラスタが開始される。凝視から直前の凝視までの距離が第1の所定距離より短い場合、直前の凝視を含むクラスタに凝視を付加する(850)。凝視から直前の凝視を含むクラスタのいずれかの凝視までの距離が第2の所定距離より短い場合、クラスタに凝視を付加する(852)。先の2つの状態のいずれも該当しない場合、凝視を含む新しいクラスタが生成される(854)。
実装のいくつかにおいて、第1及び第2の所定距離が同じであり、その場合、2番目までのルールは単一のルールに纏められる。しかしながら、凝視が直前の凝視に近い可能性がより高いので、クラスタ化アルゴリズムは、実行効率を向上するために(距離のいずれかが閾値よりも短い場合、他の距離については計算する必要がない)、一般的に、直前の凝視までの距離をまず検討する。
ユーザアクティビティラベルに基づいた凝視のグループ化及び凝視の近さに基づいたクラスタ化は、2つの別個の凝視の区画を形成する。多くの例において、グループ及びクラスタは相互に適合する。これにより、分類が適切である可能性が上昇する。しかしながら、グループ及びクラスタが適合しない場合、併合・適合モジュール434によって調整処理が実行される。詳細は、図6、図7A〜図7Dに関連して上記した。
実装のいくつかにおいて、クラスタの各々に適合するグループの各々について、グループの各々へのユーザアクティビティラベル割り当ては、グループの各々の凝視の各々に割り当てられた最終のユーザアクティビティラベルのまま、保持される(856)。実装のいくつかは、不適合グループからの凝視を含む非重畳改変グループセットを形成するために、領域を用いて、不適合グループと不適合クラスタとを調整する(858)。実装のいくつかにおいて、改変グループの凝視の各々は、同一の最終的なユーザアクティビティラベルを割り当てられる(860)(すなわち、改変グループの凝視の全ては互いに同一のラベルを有する)。
ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択される(860)。(すなわち、所定のラベルセットが1つあり、所定のセットは凝視分類モジュール430及び併合・適合モジュール434の双方によって使用される。)実装のいくつかにおいて、不適合グループと不適合クラスタとを調整することは(858)、不適合境界セットを識別すること(864)を含む(862)。不適合境界セットの境界の各々は、グループ各々の境界ではあるがクラスタ各々のいずれかの境界ではないか、クラスタ各々の境界ではあるがグループ各々のいずれかの境界ではない(866)。不適合境界セットの境界の各々について、併合・適合モジュール434は、境界を維持するための維持コストの各々を計算し(870)、境界を除去するための除去コストの各々を計算する(870)。
実装のいくつかにおいて、境界維持コスト及び境界除去コストは、改変グループのサイズ、改変グループの凝視継続時間、境界の両側の凝視に割り当てられたユーザアクティビティラベル、境界の両側の凝視に対応する領域、及び、領域のサイズ、から選択される複数のファクタに基づく(872)。併合・適合モジュール434は、次に、最も低いコストに基づいて境界を維持するか(874)除去する(874)。このプロセスは、図6及び図7A〜7Dに関して詳細に上記されている。
不適合境界の全てが処理されると、併合・適合モジュール434は、不適合境界セットから維持される境界に基づいて改変グループのセットを識別する(876)。実装のいくつかにおいて、最終的なユーザアクティビティラベルは、改変グループの各々の凝視に以前割り当てられた最も優勢なユーザアクティビティラベルに基づいて改変グループの各々の凝視に割り当てられる(878)。(すなわち、多数決ルールアルゴリズム。)
実装のいくつかにおいて、凝視及び関連付けられているユーザアクティビティラベルは、コンピュータユーザインターフェイスを修正するために1つもしくは複数の推奨を行うために分析される(880)。開示のクラスタ化及びグループ化技術は独立に適用され、その後、図6、7A〜7D及び8A〜8Dに関連して上記されたように調整されているが、2つの技術は他の方法において、統合され得る。例えば、開示のクラスタ化アルゴリズムは、次の凝視を既存のクラスタに加えるか否か判定する場合に、領域及びユーザアクティビティラベルを利用するために、修正され得る。他の例として、クラスタ化アルゴリズムがまず適用され、クラスタ化及び領域情報が、凝視の各々を分類するために使用される特徴セットに含まれ得る。
実装のいくつかにおいて、ユーザアクティビティを分類する代替的な方法は、1つもしくは複数のプロセッサ及びメモリを有するコンピュータシステムで、複数の別個の隣接する領域を有するページを見ているユーザのアイトラッキングデータを受信し、アイトラッキングデータは、時間順凝視シーケンスを含み、凝視の各々は計測された複数の注視点に対応し、凝視の各々は対応する計測された注視点の各々に基づく継続時間及び位置の各々を有し、凝視を複数のクラスタに分割し、クラスタの各々は凝視の連続するサブシーケンスを時間順に含み、凝視の特性セットに基づいて凝視の各々に仮のユーザアクティビティラベルを割り当て、ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択され、凝視を複数のグループに分割するために割り当てられた仮のユーザアクティビティラベルが同一である連続する凝視をグループ化し、クラスタの各々に適合するグループの各々について、グループの各々において凝視の各々に割り当てられた最終ユーザアクティビティラベルとして割り当てられた仮のユーザアクティビティラベルを維持し、領域を用いて、不適合グループからの凝視を含む非重畳改変グループのセットを形成するために、不適合グループと不適合クラスタとを調整し、改変グループの凝視の各々はユーザアクティビティラベルの所定のセットから選択される同一の最終ユーザアクティビティラベルを割り当てられる。
実装のいくつかにおいて、複数のクラスタに凝視を分割することは、時間順に最初の凝視を含む最初のクラスタから開始して、クラスタを構築するために時間順に凝視を処理し、最初の凝視の後、凝視の各々について、凝視から直前の凝視までの距離が第1の所定距離よりも短い場合、直前の凝視を含むクラスタに凝視を追加し、凝視から直前の凝視を含むクラスタの凝視のいずれかまでの距離が第2の所定距離よりも短い場合、クラスタに凝視を追加し、2つの条件のいずれにも合致しない場合、凝視を含む新しいクラスタを生成する。実装のいくつかにおいて、仮のユーザアクティビティラベルを凝視の各々に割り当てるために機械学習を利用する。
実装のいくつかにおいて、不適合グループと不適合クラスタとを調整することは、不適合境界セットを識別し、不適合境界セットの境界の各々はグループの各々の境界であるがいずれかのクラスタの境界ではないか、クラスタの各々の境界ではあるがいずれかのグループの境界ではなく、不適合境界セットの境界の各々について、境界を維持する維持コストの各々を計算し、境界を除去する除去コストの各々を計算し、もっとも低いコストを選択することに基づいて境界を維持するか除去し、不適合境界から維持された境界に基づいて改変グループのセットを識別し、改変グループの凝視に割り当てられた最も優勢な仮のユーザアクティビティラベルに基づいて改変グループの各々の凝視に最終的なユーザアクティビティラベルを割り当てる、ことを含む。
実装のいくつかにおいて、境界維持コスト及び境界除去コストは、改変グループのサイズ、改変グループの凝視継続時間、境界の両側で凝視に割り当てられたユーザアクティビティラベル、境界の両側の凝視に対応する領域、領域のサイズを含むグループから選択される複数のファクタに基づく。実装のいくつかにおいて、ページは印刷ページである。実装のいくつかにおいて、ページはコンピュータユーザインターフェイスのウィンドウである。実装のいくつかにおいて、ユーザアクティビティを分類する方法は、ページのコンテンツを修正する1つもしくは複数の推奨を行うために凝視及び関連付けられているユーザアクティビティラベルを分析する、ことをさらに含む。
上記は、説明を目的とし、特定の実装を参照して記述されている。しかしながら、上記の例示的な説明は網羅的であること、開示の精密な形態に発明を限定すること、を意図していない。多くの修正及び変更が、上記教示を鑑みて、可能である。実装は、発明の原理及び実際的な応用をもっとも適切に説明し、これにより、当業者が、発明及び考えられる特定の使用に適するように、様々な変更がされた様々な実装をもっとも適切に利用することを可能とするために、選択され、記述されている。
402 CPU
428 凝視検出モジュール
430 凝視分類モジュール
432 凝視クラスタ化モジュール
434 併合・適合モジュール
436 アクティビティシーケンスモジュール

Claims (18)

  1. 1つもしくは複数のプロセッサ及びメモリを有するコンピュータが、
    1つもしくは複数のユーザインターフェイスデバイスを用いてコンピュータとインタラクションしているユーザのアイトラッキングデータを受信し、
    前記アイトラッキングデータは時間順に並んだ凝視シーケンスを含み、
    凝視の各々は複数の連続する計測された注視点に対応し、
    凝視の各々は対応する計測された注視点の各々に基づく継続時間及び位置を有し、
    前記1つもしくは複数のユーザインターフェイスデバイスからユーザインタラクションデータを受信し、
    前記シーケンスの凝視の各々について、
    前記凝視の1つもしくは複数の特性及び1つもしくは複数の受信した前記ユーザインタラクションデータに基づくユーザインタラクション特徴を含む、前記凝視の複数の特徴を判定し、
    ユーザアクティビティラベルと凝視とを前記複数の特徴に従って関連付け、
    前記ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択され
    さらに、前記コンピュータは、複数の別個の隣接する領域を有するページを表示し、
    前記凝視を複数のクラスタに分割し、
    クラスタの各々は時間順に並んだ前記凝視の連続するサブシーケンスを含み、
    前記凝視を複数のグループに分割するために、同一のユーザアクティビティラベルを割り当てられた連続する凝視をグループ化し、
    クラスタの各々に適合するグループの各々について、グループの各々の凝視の各々に割り当てられた最終ユーザアクティビティラベルとして割り当てられたユーザアクティビティラベルを維持し、
    前記領域を用いて、不適合グループの凝視を含む非重畳改変グループのセットを形成するために、不適合グループと不適合クラスタとを調整し、
    改変グループの凝視の各々はユーザアクティビティラベルの所定のセットから選択された同一の最終ユーザアクティビティラベルを割り当てられる、
    ユーザアクティビティラベルと凝視とを関連付ける方法。
  2. 前記凝視の1つもしくは複数の特性は、
    前記凝視の継続時間、
    前記凝視に対応する前記連続する計測された注視点の間の距離の変動、
    前記凝視の間に計測される前記ユーザの瞳孔サイズの変動、
    の少なくとも1つを含む、
    請求項1に記載の方法。
  3. 前記複数の特徴は、
    前記凝視の位置と前記凝視の直前の凝視の位置との間の距離、
    前記凝視の位置と前記凝視の直後の凝視の位置との間の距離、
    前記凝視の直前の凝視の継続時間、
    前記凝視の直後の凝視の継続時間、
    の1つもしくは複数のコンテキスト特徴を含む、
    請求項1または2に記載の方法。
  4. 前記1つもしくは複数のユーザインタラクション特徴は、
    前記凝視の間のマウスカーソルの平均速度、
    前記凝視の間の前記凝視の位置からマウスカーソルの位置までの平均距離、
    前記凝視の間の1つもしくは複数のマウスボタンの状態、
    前記凝視の間のマウスボタンが押下されている場合の前記凝視の位置とマウスカーソルの位置との間の距離、
    の少なくとも1つを含む、
    請求項1〜3のいずれか1項に記載の方法。
  5. 前記ユーザアクティビティラベルの所定のセットは、調べる、読む、ナビゲート、選択、入力、の少なくとも1つを含む、
    請求項1〜4のいずれか1項に記載の方法。
  6. ユーザアクティビティラベルと凝視とは、機械学習を用いて関連付けられる、
    請求項1〜5のいずれか1項に記載の方法。
  7. 前記ユーザインターフェイスデバイスはキーボード及びマウスを含み、
    前記ユーザインタラクション特徴は、キーボードアクティビティに基づく特徴及びマウスアクティビティに基づく特徴を含む、
    請求項1〜3のいずれか1項に記載の方法。
  8. コンピュータユーザインターフェイスを修正するための1つもしくは複数の推奨を生成するための前記凝視及び関連付けられたユーザアクティビティラベルを分析することをさらに含む、
    請求項1〜7のいずれか1項に記載の方法。
  9. 前記凝視を複数のクラスタに分割することは、前記クラスタを構築するために、時間順で最初の凝視を含む最初のクラスタから開始し、時間順に並んだ前記凝視を処理することを含み、
    前記最初の凝視の後、凝視の各々について、
    前記凝視から直前の凝視までの距離が第1の所定距離より短い場合、直前の凝視を含むクラスタに凝視を追加し、
    前記凝視から直前の凝視を含むクラスタの凝視のいずれかまでの距離が第2の所定距離より短い場合、前記凝視を前記クラスタに追加し、
    前記凝視から直前の凝視までの距離が第1の所定距離以上であり、前記凝視から直前の凝視を含むクラスタの凝視のいずれかまでの距離が第2の所定距離以上である場合、前記凝視を含む新しいクラスタを生成する、
    請求項1〜8のいずれか1項に記載の方法。
  10. 不適合グループと不適合クラスタとを調整することは、
    不適合境界のセットを識別し、
    不適合境界のセットの境界の各々はグループの各々の境界であるがいずれかのクラスタの境界ではないか、もしくは、クラスタの各々の境界であるがいずれかのグループの境界ではなく、
    不適合境界のセットの境界の各々について、
    前記境界を維持するための維持コストの各々を計算し、
    前記境界を除去するための除去コストの各々を計算し、
    最も低いコストを選択することに基づいて、前記境界を維持するか、もしくは、除去し、
    不適合境界のセットで維持された境界に基づいて改変グループのセットを識別し、
    改変グループの各々の凝視の各々に割り当てられた最も優勢なユーザアクティビティラベルに基づいて改変グループの各々の凝視に最終ユーザアクティビティラベルを割り当てる、
    請求項1〜9のいずれか1項に記載の方法。
  11. 境界の前記維持コスト及び除去コストは、
    改変グループのサイズ、
    改変グループの凝視の継続時間、
    境界の両側の凝視に割り当てられたユーザアクティビティラベル、
    境界の両側の凝視に対応する領域、
    領域のサイズ、
    の少なくとも1つに基づく、
    請求項10に記載の方法。
  12. 1つもしくは複数のプロセッサと、
    メモリと、
    前記メモリに記憶された1つもしくは複数のプログラムと、
    を含み、
    前記1つもしくは複数のプログラムは、
    1つもしくは複数のユーザインターフェイスデバイスを用いてコンピュータとインタラクションするユーザのアイトラッキングデータを受信し、
    前記アイトラッキングデータは時間順に並んだ凝視のシーケンスを含み、
    凝視の各々は連続する計測された複数の注視点の各々に対応し、
    凝視の各々は、対応する計測された注視点の各々に基づく継続時間及び位置を有し、
    1つもしくは複数のユーザインターフェイスデバイスからユーザインタラクションデータを受信し、
    シーケンスの各々の凝視について、
    1つもしくは複数の凝視の特性及び受信したユーザインタラクションデータに基づく1つもしくは複数のユーザインタラクション特徴を含む凝視の複数の特徴を判定し、
    複数の特徴に従ってユーザアクティビティラベルと凝視とを関連付け、
    前記ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択され
    さらに、前記1つもしくは複数のプログラムは、別個の隣接する複数の領域を有するページを表示し、
    複数のクラスタに前記凝視を分割し、
    クラスタの各々は時間順に並んだ前記凝視の連続するサブシーケンスを含み、
    前記凝視を複数のグループに分割するために同一のユーザアクティビティラベルを割り当てられた連続する凝視をグループ化し、
    クラスタの各々と適合するグループの各々について、グループの各々の凝視の各々に割り当てられた最終ユーザアクティビティラベルとして割り当てられたユーザアクティビティラベルを維持し、
    不適合グループの凝視を含む非重畳改変グループのセットを形成するために、領域を用いて、不適合クラスタと不適合グループとを調整し、
    改変グループの凝視の各々はユーザアクティビティラベルの所定のセットから選択された同一の最終ユーザアクティビティラベルを割り当てられる、
    ユーザアクティビティラベルと凝視とを関連付けるコンピュータシステム。
  13. 前記凝視の1つもしくは複数の特性は、
    前記凝視の継続時間、
    前記凝視に対応する連続する計測された注視点の間の距離の変動、
    前記凝視の間に計測された前記ユーザの瞳孔サイズの変動、
    の少なくとも1つを含む、
    請求項12に記載のコンピュータシステム。
  14. 前記複数の特徴は、
    前記凝視の位置と直前の凝視の位置との間の距離、
    前記凝視の位置と直後の凝視の位置との間の距離、
    直前の凝視の継続時間、
    直後の凝視の継続時間、
    の1つもしくは複数であるコンテキスト特徴を含む、
    請求項12または13に記載のコンピュータシステム。
  15. 前記1つもしくは複数のユーザインタラクション特徴は、
    前記凝視の間のマウスカーソルの平均速度、
    前記凝視の間の前記凝視の位置からマウスカーソルまでの平均距離、
    前記凝視の間の1つもしくは複数のマウスボタンの状態、
    前記凝視の間、マウスボタンが押下されている場合の前記凝視の位置とマウスカーソルの位置との間の距離、
    の少なくとも1つを含む、
    請求項12〜14のいずれか1項に記載のコンピュータシステム。
  16. ユーザアクティビティラベルの所定のセットは、調べる、読む、ナビゲート、選択及び入力の少なくとも1つを含む、
    請求項12〜15のいずれか1項に記載のコンピュータシステム。
  17. 前記ユーザインターフェイスデバイスはキーボード及びマウスを含み、
    前記ユーザインタラクション特徴はキーボードアクティビティに基づく特徴及びマウスアクティビティに基づく特徴を含む、
    請求項12〜14のいずれか1項に記載のコンピュータシステム。
  18. 1つもしくは複数のユーザインターフェイスデバイスを用いてコンピュータとインタラクションするユーザのアイトラッキングデータを受信し、
    前記アイトラッキングデータは時間順に並んだ凝視のシーケンスを含み、
    凝視の各々は複数の連続する継続された注視点の各々に対応し、
    凝視の各々は対応する計測された注視点の各々に基づく継続時間及び位置を有し、
    1つもしくは複数のユーザインターフェイスデバイスからユーザインタラクションを受信し、
    前記シーケンスの凝視の各々について、
    前記凝視の1つもしくは複数の特性及び受信したユーザインタラクションデータに基づく1つもしくは複数のユーザインタラクション特徴を含む前記凝視の複数の特徴を判定し、
    前記複数の特徴に従って、ユーザアクティビティラベルと前記凝視とを関連付け、
    前記ユーザアクティビティラベルはユーザアクティビティラベルの所定のセットから選択され
    複数の別個の隣接する領域を有するページを表示し、
    前記凝視を複数のクラスタに分割し、
    クラスタの各々は時間順に並んだ前記凝視の連続するサブシーケンスを含み、
    前記凝視を複数のグループに分割するために、同一のユーザアクティビティラベルを割り当てられた連続する凝視をグループ化し、
    クラスタの各々に適合するグループの各々について、グループの各々の凝視の各々に割り当てられた最終ユーザアクティビティラベルとして割り当てられたユーザアクティビティラベルを維持し、
    前記領域を用いて、不適合グループの凝視を含む非重畳改変グループのセットを形成するために、不適合グループと不適合クラスタとを調整し、
    改変グループの凝視の各々はユーザアクティビティラベルの所定のセットから選択された同一の最終ユーザアクティビティラベルを割り当てられる、
    ことをコンピュータに実行させるためのプログラム。
JP2014221693A 2013-11-12 2014-10-30 ユーザアクティビティラベルと凝視とを関連付ける方法、コンピュータシステム、及びプログラム Expired - Fee Related JP6409507B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/078,458 2013-11-12
US14/078,458 US9256785B2 (en) 2013-11-12 2013-11-12 Identifying user activities using eye tracking data, mouse events, and keystrokes

Publications (2)

Publication Number Publication Date
JP2015095260A JP2015095260A (ja) 2015-05-18
JP6409507B2 true JP6409507B2 (ja) 2018-10-24

Family

ID=53043837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014221693A Expired - Fee Related JP6409507B2 (ja) 2013-11-12 2014-10-30 ユーザアクティビティラベルと凝視とを関連付ける方法、コンピュータシステム、及びプログラム

Country Status (2)

Country Link
US (2) US9256785B2 (ja)
JP (1) JP6409507B2 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9256785B2 (en) * 2013-11-12 2016-02-09 Fuji Xerox Co., Ltd. Identifying user activities using eye tracking data, mouse events, and keystrokes
US10248192B2 (en) * 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
US9978341B2 (en) * 2014-12-23 2018-05-22 Mediatek Inc. Visual data processing method and visual data processing system which can perform a process operation according to a gazing point
US10768772B2 (en) * 2015-11-19 2020-09-08 Microsoft Technology Licensing, Llc Context-aware recommendations of relevant presentation content displayed in mixed environments
US10444972B2 (en) 2015-11-28 2019-10-15 International Business Machines Corporation Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries
JP6761976B2 (ja) * 2016-03-10 2020-09-30 パナソニックIpマネジメント株式会社 自律神経の揺らぎの利用方法およびシステム
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10379709B2 (en) * 2016-04-08 2019-08-13 Paypal, Inc. Electronically analyzing user activity on a graphical user interface
KR20190025549A (ko) 2016-05-06 2019-03-11 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 정신 장애들의 치료를 위한 이동 및 착용 가능한 비디오 캡처 및 피드백 플랫-폼들
CN106169063B (zh) * 2016-06-22 2019-11-26 江苏大学 一种自动识别用户阅读兴趣区的方法
US11477302B2 (en) * 2016-07-06 2022-10-18 Palo Alto Research Center Incorporated Computer-implemented system and method for distributed activity detection
US11093834B2 (en) * 2016-07-06 2021-08-17 Palo Alto Research Center Incorporated Computer-implemented system and method for predicting activity outcome based on user attention
US10885478B2 (en) * 2016-07-06 2021-01-05 Palo Alto Research Center Incorporated Computer-implemented system and method for providing contextually relevant task recommendations to qualified users
US10181078B1 (en) 2016-11-07 2019-01-15 National Technology & Engineering Solutions Of Sandia, Llc Analysis and categorization of eye tracking data describing scanpaths
US10503467B2 (en) 2017-07-13 2019-12-10 International Business Machines Corporation User interface sound emanation activity classification
US11175735B2 (en) * 2017-07-24 2021-11-16 Adobe Inc. Choice-based analytics that combine gaze and selection data
US11073904B2 (en) * 2017-07-26 2021-07-27 Microsoft Technology Licensing, Llc Intelligent user interface element selection using eye-gaze
US11073707B2 (en) * 2017-11-07 2021-07-27 The Boeing Company Dimmable window apparatus and vehicle including the same
US10656706B2 (en) * 2017-12-04 2020-05-19 International Business Machines Corporation Modifying a computer-based interaction based on eye gaze
US10552986B1 (en) * 2018-07-20 2020-02-04 Banuba Limited Computer systems and computer-implemented methods configured to track multiple eye-gaze and heartrate related parameters during users' interaction with electronic computing devices
CN110019893B (zh) * 2018-08-28 2021-10-15 京东方科技集团股份有限公司 一种画作获取方法及装置
CN109118296A (zh) * 2018-09-04 2019-01-01 南京星邺汇捷网络科技有限公司 活动推送方法、装置及电子设备
US10942833B2 (en) * 2019-01-11 2021-03-09 International Business Machines Corporation Monitoring routines and providing reminders
US11112865B1 (en) * 2019-02-13 2021-09-07 Facebook Technologies, Llc Systems and methods for using a display as an illumination source for eye tracking
CN110555081B (zh) * 2019-04-18 2022-05-31 国家计算机网络与信息安全管理中心 社交互动的用户分类方法、装置、电子设备及介质
WO2020226603A1 (ru) * 2019-05-03 2020-11-12 Сергей Анатольевич ДАНИЛОВ Автоматизированный способ и система определения объема распознавания информации, и автоматизированный способ верификации ознакомления с электронным документом
CN110245964A (zh) * 2019-06-14 2019-09-17 北京市商汤科技开发有限公司 信息推送方法和装置以及存储介质
US11216065B2 (en) * 2019-09-26 2022-01-04 Lenovo (Singapore) Pte. Ltd. Input control display based on eye gaze
US11420131B2 (en) * 2020-05-04 2022-08-23 Sony Interactive Entertainment Inc. Systems and methods for facilitating secret communication between players during game play
US20220172102A1 (en) * 2020-11-30 2022-06-02 International Business Machines Corporation Machine learning model trained using features extracted from n-grams of mouse event data
US20230008220A1 (en) * 2021-07-09 2023-01-12 Bank Of America Corporation Intelligent robotic process automation bot development using convolutional neural networks
US11847598B2 (en) * 2021-08-13 2023-12-19 Edgeverve Systems Limited Method and system for analyzing process flows for a process performed by users
FR3126794A1 (fr) * 2021-09-06 2023-03-10 Orange Procédé d’analyse de l’activité d’un utilisateur d’un terminal électronique
US11687152B1 (en) 2022-09-08 2023-06-27 International Business Machines Corporation Directional recommendations based on movement tracking while performing an activity
CN117632330A (zh) * 2023-10-12 2024-03-01 浙江大学 一种虚拟环境下眼控界面的交互目标布局方法和系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3226164B2 (ja) * 1998-11-06 2001-11-05 日本電気株式会社 移動携帯情報端末装置およびそのデータ表示方法
JP2002149332A (ja) * 2000-11-10 2002-05-24 Fuji Xerox Co Ltd 情報処理システム、情報処理方法及びコンピュータ読み取り可能な記録媒体
US6601021B2 (en) * 2000-12-08 2003-07-29 Xerox Corporation System and method for analyzing eyetracker data
JP2002183212A (ja) * 2000-12-19 2002-06-28 Fuji Xerox Co Ltd 電子文書加工システム、電子文書加工方法、及び、コンピュータ読取り可能な記録媒体
US7533411B2 (en) * 2003-09-23 2009-05-12 Microsoft Corporation Order-based human interactive proofs (HIPs) and automatic difficulty rating of HIPs
US7505946B2 (en) * 2004-03-31 2009-03-17 Microsoft Corporation High performance content alteration architecture and techniques
JP2005216311A (ja) * 2005-01-28 2005-08-11 Fuji Xerox Co Ltd ユーザビリティ評価支援装置
US8433384B2 (en) * 2006-05-03 2013-04-30 Covidien Lp Method and apparatus for cerebral oximetry
US8019127B2 (en) * 2006-09-13 2011-09-13 George Mason Intellectual Properties, Inc. Image based turing test
WO2010071928A1 (en) * 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
US8311279B2 (en) * 2010-02-23 2012-11-13 Fuji Xerox Co., Ltd. System and method for improved image analysis through gaze data feedback
WO2012052061A1 (en) * 2010-10-22 2012-04-26 Institut für Rundfunktechnik GmbH Method and system for calibrating a gaze detector system
US20130177296A1 (en) * 2011-11-15 2013-07-11 Kevin A. Geisner Generating metadata for user experiences
US9330431B2 (en) * 2012-12-19 2016-05-03 Jeffrey Huang System and method for synchronizing, merging, and utilizing multiple data sets for augmented reality application
US9256785B2 (en) * 2013-11-12 2016-02-09 Fuji Xerox Co., Ltd. Identifying user activities using eye tracking data, mouse events, and keystrokes

Also Published As

Publication number Publication date
JP2015095260A (ja) 2015-05-18
US20150131850A1 (en) 2015-05-14
US20160132752A1 (en) 2016-05-12
US9256785B2 (en) 2016-02-09
US9384420B2 (en) 2016-07-05

Similar Documents

Publication Publication Date Title
JP6409507B2 (ja) ユーザアクティビティラベルと凝視とを関連付ける方法、コンピュータシステム、及びプログラム
US11650659B2 (en) User input processing with eye tracking
US10572072B2 (en) Depth-based touch detection
CN106155298B (zh) 人机识别方法及装置、行为特征数据的采集方法及装置
US9459694B2 (en) Cursor movement device
TWI754806B (zh) 利用深度學習定位虹膜之裝置與方法
EP3015952B1 (en) Method and system for detecting objects of interest
US20100071965A1 (en) System and method for grab and drop gesture recognition
US20140208274A1 (en) Controlling a computing-based device using hand gestures
CN116507995A (zh) 带有虚拟轨迹板的触摸屏显示器
KR20210043677A (ko) 동작 인식 방법 및 장치, 전자 디바이스 및 기록 매체
Rozado et al. Low cost remote gaze gesture recognition in real time
KR102586170B1 (ko) 전자 장치 및 이의 검색 결과 제공 방법
Akshay et al. Machine learning algorithm to identify eye movement metrics using raw eye tracking data
Khurshid et al. Hand Gesture Recognition for User Interaction in Augmented Reality (AR) Experience
KR101413558B1 (ko) 사용자 다중의도 분석장치 및 사용자 다중의도 분석 방법
CN107871019B (zh) 人车关联搜索方法及装置
US11960633B1 (en) Systems and methods for enabling facial browsing of a display based on movement of facial features
de Lope et al. Comparison of labeling methods for behavioral activity classification based on gaze ethograms
JP7470069B2 (ja) 指示物体検出装置、指示物体検出方法及び指示物体検出システム
Mollaei et al. Patient’s actions recognition in hospital’s recovery department based on RGB-D dataset
Harini et al. A novel static and dynamic hand gesture recognition using self organizing map with deep convolutional neural network
Uke et al. Optimal video processing and soft computing algorithms for human hand gesture recognition from real-time video
WO2023168074A2 (en) Automated test of embodied cognition
CN115328306A (zh) 基于惯性测量单元的可穿戴输入交互方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180910

R150 Certificate of patent or registration of utility model

Ref document number: 6409507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees