JP4299138B2 - 視標追跡データの使用を容易にする技法 - Google Patents

視標追跡データの使用を容易にする技法 Download PDF

Info

Publication number
JP4299138B2
JP4299138B2 JP2003551650A JP2003551650A JP4299138B2 JP 4299138 B2 JP4299138 B2 JP 4299138B2 JP 2003551650 A JP2003551650 A JP 2003551650A JP 2003551650 A JP2003551650 A JP 2003551650A JP 4299138 B2 JP4299138 B2 JP 4299138B2
Authority
JP
Japan
Prior art keywords
data
individuals
visual
result data
tracking data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003551650A
Other languages
English (en)
Other versions
JP2005512625A5 (ja
JP2005512625A (ja
Inventor
エドワーズ,グレゴリイ・ティ
Original Assignee
アイツールス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイツールス filed Critical アイツールス
Publication of JP2005512625A publication Critical patent/JP2005512625A/ja
Publication of JP2005512625A5 publication Critical patent/JP2005512625A5/ja
Application granted granted Critical
Publication of JP4299138B2 publication Critical patent/JP4299138B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は視標追跡に関する。より詳細には、本発明は、集約された視標追跡データを使用する技法に関する。
人が、例えばコンピュータ・システムを使用することに従事する際にその人の眼球の運動を追跡することのできるデバイスが現存する。視標追跡デバイスは、一般に、カメラと、注視位置を表すデータ(または「注視データ」)を生成する関連する電子構成要素からなる。この注視データを使用して、その個人がどこを見ているか判定することができ、それを固視(所定期間の凝視)およびサッカード(2点間の注視の運動)の観点から記述することができる。
注視データをユーザに提示されたグラフィック・イメージと組み合わせると、その組合せデータは、その人が何を見ていたか(すなわち「目視データ」)を示すことになる。この目視データを使用して、例えば、目視者が提示された情報すべてを見たかどうか判定することができる。目視データは、通常、それぞれ、固視とサッカードとを示す一連の円と線としてグラフィック的に提示される。典型的な目視データ、およびその目視データのグラフィック表現の1つの欠点は、1人のユーザの目視だけしか提示できないことである。
本発明を、例として、それだけに限らないが、添付の図面中の各図に示す。図中、類似の符号は、類似の要素を指す。
視標追跡データを使用する技法について説明する。以下の説明では、本発明を完全に理解できるように、説明として多数の特定の詳細を記述する。しかし、それらの特定の詳細がなくても本発明を実施できることが当分野の技術者には明らかであろう。他の例では、本発明を分かりにくくすることのないように、構造およびデバイスを構成図の形で示す。
本明細書で「一実施形態」または「1つの実施形態」という場合、それは、その実施形態との関連で記述される個々の機能、構造または特徴が本発明の少なくとも1つの実施形態に含まれることを意味する。本明細書中の様々な箇所で「一実施形態では」という句が現れる場合、必ずしもすべてが同じ実施形態を指すとは限らない。
本明細書では、視標追跡データの集約を含む技法について説明する。集約は、例えば、データの合計によるものやデータの平均によるものなど、多くの方法で実現し得る。また、それだけに限らないが、分割、統計的解析などを含めて、集約に他の種類のオペレーションを使用することもできる。本明細書では、データの合計および/または平均として説明するが、データの集約には任意のデータ解析オペレーションを実施することが可能である。
個人の視標追跡データを使用して、個人が実際に視界の個々の領域を見たかどうか判定することが可能である。「領域」は、視界の任意の部分とすることができ、例えば、表示デバイス上の所定数の画素や、物理環境の一区域とすることもできる。複数の個人に対応するデータを集約すると、グラフィック表現(Webページ、広告など)および目視され得るその他の項目の設計者にとって有用な傾向その他のデータを提供することができる。
目視された領域と目視されなかった領域の両方を示す集約目視データの表現は、いくつかの異なる技法を用いて実現できる。例えば、個々の領域を目視した目視者数の割合を個々の色で表すことができ、あるいは、目視されている背後にあるイメージを、視力勾配と様々な領域を目視している個人の数とに基づいてぼかすこともできる。目視されたものとして表される様々な領域は、個々の領域に関連付けられた目視活動(例えば、読み取る、注視するなど)の種類に基づいて選択できる。
集約された目視データを使用し、環境や関与する当事者に応じて様々な結果を提供することができる。例えば、集約された目視データを、そのデータの物理的複製を印刷し、あるいはそのデータをコンピュータ・モニタで表示することによって、視覚表示で表現することが可能である。集約された目視データを使用してモニタされた領域を変更することも可能である。例えば、Webページに関連する集約目視データを使用して、その集約目視データの物理的表現を生成せずにそのWebページを変更することも可能である。
一実施形態では、本明細書で述べる技法を、電子システムによって実行される命令のシーケンスとして実装することができる。それらの命令のシーケンスは、電子システムに記憶させることも、あるいは電子デバイス(例えばネットワーク接続など)に受信させることも可能である。それらの命令は複数の電子システムによって実行される。
例えば、1つまたは複数の視標追跡システムが個々のユーザから視標追跡データを収集することができる。そのデータは、データをコンパイルし、かつ/または処理する1つまたは複数の電子システムに(例えば、ネットワークを介して)伝送され、次いで、それらのシステムが、その処理済データを、様々なユーザ・アクセス可能な形式(例えば、表示デバイス上でのグラフィック出力、サーバを介してアクセス可能なファイル、印刷ページ、別のシステムへの入力など)のいずれかにすることができる。別の例では、その命令のすべてが単一の電子システム(視標追跡カメラと、視標追跡データの収集および処理に適したソフトウェアとを備えるコンピュータ・システムなど)によって実行される。
図1は電子システムの一実施形態の構成図である。図1に示す電子システムは、例えば、コンピュータ・システム、ネットワーク・アクセス・デバイス、携帯情報端末(PDA)など、様々な電子システムを表すためのものである。代替の電子システムは、これより多い、少ない、かつ/またはこれとは異なる構成要素を含んでもよい。説明を簡単にするために、電子システム100を視標追跡デバイスを備えるものとして説明する。ただし、この視標追跡デバイスは、視標追跡データを処理するものと同じ電子システムの一部である必要はない。
電子システム100は、情報をやりとりするためのバス101またはその他の通信デバイス、およびバス101に結合された情報を処理するためのプロセッサ102を含む。電子システム100を単一のプロセッサを備えるものとして示してあるが、電子システム100は、複数のプロセッサおよび/またはコプロセッサを含むこともできる。電子システム100は、情報と、プロセッサ102によって実行される命令とを記憶する、バス101に結合された(メモリと呼ばれる)ランダム・アクセス・メモリ(RAM)またはその他の動的記憶デバイス104をさらに含む。メモリ104は、プロセッサ102による命令の実行中に、一時変数またはその他の中間情報を記憶するのに使用することもできる。
電子システム100は、プロセッサ102のための静的情報と命令を記憶する、バス101に結合された読取り専用メモリ(ROM)および/またはその他の静的記憶デバイス106も含む。データ記憶デバイス107は、情報と命令を記憶するためにバス101に結合されている。磁気ディスクや光ディスクおよび対応するドライブなどのデータ記憶デバイス107を電子システム100に結合することもできる。
メモリ104は、視標追跡データ166を処理して目視データの出力表現を生成する視標追跡アプリケーション162を含む。その他の視標追跡データ(図1に示さず)を記憶デバイス107に記憶し、あるいはネットワーク・インターフェース130を介してそれにアクセスすることもできる。以下で、視標追跡アプリケーション162の具体的機能と視標追跡データ166の使用についてより詳細に説明する。
メモリ104は、システム100のオペレーションを指図するオペレーティング・システム160を含む。一実施形態では、オペレーティング・システム160はシステム100の制御の最上位層である。アプリケーション164は、それらがより上位のシステム層の許容可能な状況内でオペレーションを指図するという点で、システム制御のより下位の層である。アプリケーション164は、ユーザ・プログラム(例えば、ワード・プロセッサ、電子メール(e−mail)プログラムなど)を含むこともできる。
電子システム100は、コンピュータ・ユーザに情報を表示するために、バス101を介して、陰極線管(CRT)や液晶ディスプレイ(LCD)などの表示デバイス121が結合されている。情報とコマンド選択をプロセッサ102に伝達するために、英数字その他のキーを含む英数字入力デバイス122がバス101に結合されている。指示情報とコマンド選択をプロセッサ102に伝達すると共に、ディプレイ121上でのカーソル移動を制御するための別種のユーザ入力デバイスが、マウス、トラックボール、カーソル方向キーなどのカーソル制御123である。電子システム100は、ローカル・エリア・ネットワークなどのネットワークへのアクセスを可能にするネットワーク・インターフェース130をさらに含む。
視標追跡デバイス150がバス101に結合され、メモリ104および/または記憶デバイス107に記憶される視標追跡データ166を生成する。視標追跡デバイス150は、当分野で知られている任意の種類の視標追跡デバイスとすることが可能である。例えば、視標追跡デバイス150は、光学的、電気的、磁気的、および/またはその他の技法によって眼球運動を追跡することができる。
命令は、磁気ディスク、読取り専用メモリ(ROM)集積回路、CD−ROM、DVDなどの記憶デバイスから、1つまたは複数の電子的にアクセス可能な媒体などへのアクセスを可能にする有線または無線のリモート接続を介して(例えば、ネットワーク・インターフェース130経由のネットワークを介して)メモリに提供される。代替実施形態では、ソフトウェア命令の代わりに、あるいはそれと組み合わせて、固定配線回路を使用することもできる。したがって、命令のシーケンスの実行は、ハードウェア回路およびソフトウェア命令のどんな特定の組合せにも限定されないものである。
電子的にアクセス可能な媒体には、電子デバイス(コンピュータ、携帯情報端末、セルラ電話など)で読取り可能な形で内容(コンピュータ実行可能命令など)を提供する(すなわち、記憶し、かつ/または伝送する)任意の機構が含まれる。例えば、機械アクセス可能媒体には、読取り専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュ・メモリ・デバイス、電気的、光学的、音響的またはその他の形の伝播信号(搬送波、赤外線信号、デジタル信号)などが含まれる。
一実施形態では、視標追跡デバイス150は、眼球の位置と運動を表す生データを生成する。この生データがバス101を介してメモリ104に転送され、視標追跡データ166として記憶される。プロセッサ102は、視標追跡アプリケーション162を実行して視標追跡データ166を解釈する。視標追跡アプリケーション162は、様々なレベルの視標追跡データを解釈する。
最低のレベルでは、視標追跡データは、基本的特徴を識別するために解釈される。視標追跡データは、例えば、2次元(x,y)注視位置、3次元(x,y,z)注視位置、サンプル時間(t)、瞳孔直径(d)、目を開いているかそれとも閉じているか、および/または生体フィードバック(例えば、汗、温度、心拍数、呼吸数)情報などその他の関連情報とすることができる。注視情報には、持続時間、反応時間および/または個々の注視に関連するその他の情報が含まれ得る。視標追跡データから判定される基本的特徴には、例えば、固視(位置、時間および/または持続時間)、サッカード(大きさ、方向および/または速度)、円滑追跡眼球運動(眼球が描く軌道、速度)、瞬き(持続時間)などがある。
一実施形態では、固視とは、若干の時空間隔内における生の眼球運動追跡データの統計的に有意なクラスタ化であると定義される。固視は、生の眼球運動追跡データの流れを分析して、所定の最小固視時間間隔中の眼球位置の大部分が所定の最小固視空間間隔内にあるかどうかを判定することによって識別することができる。例えば、生眼球運動追跡データの流れを分析して、50ms時間間隔中の眼球位置の少なくとも80%が0.25度の空間間隔内にあるかどうかを判定することができる。また、他の値および他の技法を使用して固視を識別することも可能である。当分野では多くの技法が知られており、固視を識別する任意の技法を使用することができる。
サッカードとは、2つの固視間の変位と方向であると定義し得る。他の基本的特徴、例えば、瞬き、円滑追跡眼球運動、頭部内での眼球回転の角度なども、生眼球運動追跡データの流れから求めることができる。
次いで、それらの基本的特徴を解釈して眼球運動パターンを求めることができる。眼球運動パターンには、例えば、再訪、有意な固視、垂直サッカード、水平サッカード、短い連続サッカードなどが含まれる。一実施形態では、眼球運動パターンとは、所定の眼球運動パターン・テンプレートに関連付けられた1組の基準を満たす基本的特徴の集合である。一実施形態では、サッカードが発生するたびに基本的特徴データを分析して、所定の眼球運動パターンが存在するかどうか判定する。
一実施形態では、眼球運動パターンは以下のように定義される。ただし、それらの眼球運動パターンに他の定義を使用することもでき、他の眼球運動パターンを定義することもできる。「再訪」とは、現在の固視の直前の固視を除く、直近の5つの固視のうちの1つの1.2度以内にある現在の固視である。一実施形態では、「有意な固視」とは、同じカテゴリ中の他の固視に比べて、著しく持続時間の長い固視である。
「垂直サッカード」とは、垂直方向(y)の変位が水平方向(x)の変位の2倍を超え、水平方向の変位が1度未満のサッカードである。「水平サッカード」とは、水平方向の変位が垂直方向の変位の2倍を超え、垂直方向の変位が1度未満のサッカードである。「短い連続サッカード」とは、合わせて5度を超える距離に及ぶ短いサッカードのシーケンスである。
眼球運動パターンは、目視者の精神状態に関する情報を提供する。例えば、目視者が固視から小さいサッカードを行った場合、その目視者は意識的な運動を行っている。というのは、それが周辺視野を介して見える区域に移動しているからである。別の例では、短い連続サッカードは、その目視者が局所的に対象を探していることを示す。有意な固視の後の大きなサッカードに続く少数の小さなサッカードは、記憶された場所への意識的な運動を示す。複数の大きなサッカードは、全体的なサーチを示し、それはその目視者が目標を求めて大きな区域をサーチしているときに発生する。
眼球運動パターンを解釈して眼球挙動パターンを判定する。眼球挙動パターンとは、所定の基準を満たす1つまたは複数の眼球運動パターンである。一般に、眼球挙動パターンの理解には、その目視者の視野の先見的知識は必要とされない。したがって、視野とは無関係に目視者の精神状態を推論することが可能である。しかし、精神状態および/または眼球運動のグラフィック表示を視野に適用すれば、目視者の視野の内容に関連する設計、使用、変更またはその他の目的に有用な情報を提供することができる。
以下の眼球挙動パターンの例および定義は、網羅的なものではなく、代表的なものであることが意図されている。その他のおよび/または異なる眼球挙動パターンもサポートされる。また、個々の眼球挙動パターンに様々な定義を適用することも可能である。「最適ライン」とは、左向きまたは右向きの少なくとも2つの水平サッカードのシーケンスである。「読み取る」とは、(左から右に読まれる英語その他の言語での)右向きの最適ライン、または現在の状態が読み取りである間の短い水平サッカードである。
「ブロックを読み取る」は、大きな左向きサッカードで隔てられた右向きの最適ラインのシーケンスであり、その場合、各最適ラインは、下向きのシーケンスでは規則的な間隔を持ち、(通常は)同様の長さを有する。「再読する」は以前に読み取った区域を読み取ることである。「走査する」または「流し読みする」は、下向きの成分を持つ大きなサッカードによって接合された右向きの最適ラインのシーケンスであり、その場合、各最適ラインは、規則的な間隔を持たず、等しい長さでもない。
「思考する」は、例えば、短いサッカードで隔てられたいくつかの長い固視で定義される。「ぼんやりする」は、例えば、長時間にわたって継続する複数の短いサッカードによって隔てられたいくつかの長い固視によって定義される。「サーチする」は、最後の有意な固視またはユーザ状態の変化からの短い連続サッカード、複数の大きなサッカード、または多数のサッカードである。「再び知る」はサーチするに類似するが、より長時間の固視および一貫したリズムを伴う。
図2に、集約された視標追跡データをオーバーレイさせたワールド・ワイド・ウェブ・ページの一例を示す。1組の目視者の他の種類の視野について集約視標追跡データを蓄積し、表現することもできる。例えば、読書する1組の目視者、あるいは、芸術作品や自動車などの3次元対象物の目視者について、視標追跡データを集めることができる。それらの集約視標追跡データを複数の技法を使用して蓄積することが可能である。
一実施形態では、複数の個人からの(複数の視標追跡デバイスまたは単一の視標追跡デバイスからの)視標追跡データを(コンピュータ・システムなど)電子システムによって集約し、その集約視標追跡データを使用して、集約視標追跡データの図式表現を作成することができる。別の実施形態では、1個人からの視標追跡データを使用してその視標追跡データのグラフィック表現を作成することができる。別の個人からの視標追跡データをそのグラフィック表現とグラフィック的に組み合せて、両者を組み合せたグラフィック表現を作成することもできる。これを、任意の数の個人について繰り返すことが可能である。
Webページ200は、目視者が観測することのできるグラフィック・フィールドとテキスト・フィールドの組合せを提示する。例えば、グラフィック・イメージ250は犬を散歩させている人を表す。一実施形態では、領域210と215は、それらの標識内の領域を目視した目視者の割合(または合計数)の表示を提供する。一般に、領域215に比べて、より大きな割合の目視者が、領域210内の領域を目視したことが追跡された。この差異を、例えば、領域ごとに異なる色として提示することもでき、異なる領域を異なる程度にぼかすこともでき、かつ/または領域の不透明度で目視割合または数を示すこともできる。
一実施形態では、ある領域は、その領域の境界がある基本的特徴(固視や注視など)の境界と外接する場合に、目視されたとみなされる。別の実施形態では、例えば、領域が、固視または注視を示すのに使用される区域より小さいときに、その基本的特徴がその領域にオーバーラップする場合には、領域が目視されたとみなされる。一実施形態では、基本的特徴ごとに異なる輪郭を関連付けることができる。
一実施形態では、領域の輪郭は、その背後にある領域に関連付けられた眼球挙動パターンに基づいて選択される。例えば、固視を円で表し、一瞥をより長い円で表し、読取りを矩形領域で表すことができる。領域220、222、224は目視者による読取りの例を提供する。図2の例で、領域220はテキストの最初の3単語を読み取った目視者の割合/数を示す。領域222は、テキストの最初の行を読み取った目視者の割合/数を示す。領域224は、その一節全部を読み取った目視者の割合/数を示す。
様々な領域がそれぞれの領域を目視した目視者の数を示す方式は、その背後にある視野に基づいて選択できる。例えば、色またはグレーの濃淡を使用して個々の領域を目視した目視者の数および/または割合を示すこともでき、ぼかしを使用することもできる。上記または類似の技法を使用して他の目視データ、例えば、各領域が目視された時間の長さなどを示すことも、時間経過の何らかの表示を提供することもできる。
目視者の行為を表すためにその他の標識を提供することもできる。例えば、1人または複数の目視者が、追加のテキストを読むために「詳細」リンクをクリックした場合、行われた行為の表示をその「詳細」リンク上にオーバーレイさせることができる。その他の行為標識を提供することもできる。
図3に視標追跡データの収集に使用される第2のワールド・ワイド・ウェブ・ページを示す。Webページ300は、それに関する視標追跡データを集めることのできる典型的なWebページの一例として提供される機能Webページである。目視者が、Webページ300を読み取り、ナビゲートし、クリックし、またはそれ以外の方法で目視することによってWebページ300と対話する際に、Webページ300を表示する表示デバイスの下に、例えば、カメラなどの視標追跡デバイスを置く。ただし、この視標追跡デバイスは、視標追跡データを提供するために目視者の眼球に十分にアクセスできる場所であればどこにでも置くことができる。
図4に、混合提示技法を使用して、集約視標追跡データをオーバーレイさせたWebページ300を示す。一実施形態では、Webページ300の個々の領域を目視した目視者の割合によってその領域の不透明度が決定される集約目視マスクが生成される。この集約目視マスクが前景として使用され、目視されたイメージは、アルファ混合オペレーションで使用するための背景である。例えば、100%の目視者がある領域を目視した場合、その領域の不透明度は0%である。言い換えると、その領域は透明であり、対応する背景領域は前景領域によってぼかされない。別の例では、50%の目視者がある領域を目視した場合、その領域の不透明度は50%であり、すなわち50%の透明度である。
一実施形態では、集約目視マスクがWebページ300とアルファ混合される。アルファ混合は、前景イメージ(目視マスクなど)を背景イメージ(Webページ300など)と組み合せて新規の混合イメージを生成するプロセスである。前景イメージの半透明性の度合いは、完全な透明から完全な不透明まで変動し得る。前景イメージが完全に透明である場合には、その混合イメージは背景イメージになる。反対に、前景イメージが完全に不透明である場合には、その混合イメージは前景イメージになる。もちろん、この半透明度はこれら両極間で変動し得るものであり、その場合、その混合イメージは、前景イメージと背景イメージとの加重平均として計算される。
一実施形態では、背景イメージの半透明度は20%であり、前景イメージの半透明度は80%である。各領域の色は、背景イメージの領域を目視した目視者の割合/数に基づいて選択される。目視割合の別の標識として、様々な領域を、領域を目視した目視者の割合/数に基づいて色符号化することもできる。
一代替実施形態では、目視割合/数を表わすために、Webページ300の背景イメージがぼかされる。一実施形態では、このぼかしは、肉眼が実際に何を見るかを表す視力勾配に基づくものである。
図5に、使用可能な視力勾配の1バージョンを示す。図5の勾配は、1974年、C.V.Mosby Company刊、Vernon B.Mountcastle M.D.著、「Medical Physiology」、第1巻、463ページからの引用である。
別の代替実施形態では、前景イメージとして使用される集約目視マスクは、個々の領域を目視した人の割合/数のグレー・スケール表示を含むことができる。例えば、より淡いグレーの階調はより高い目視割合を示し、より濃いグレーの階調はより低い目視割合を示すことが可能である。次いで、前景イメージが背景イメージとアルファ混合されて、集約目視データの視覚表現が生成される。
図6は、集約目視データを収集し、提示する手法の一実施形態のデータ流れ図である。図6の例は、結果としてその目視データのカラー表現とアルファ混合されたその視野の表現を生じる。前述したように、他の種類の表現も使用し得る。一実施形態では、図6の流れは、例えば、図2の電子システムなどの電子システムによって実現される。ただし、ハードウェア、ソフトウェア、あるいはハードウェアおよびソフトウェアの任意の組合せを使用することができる。
610で目視者に情報を提示する。ユーザに提示される情報は、例えば、コンピュータ・システムの表示デバイス上のWebページ、書籍、その他任意の種類の情報とすることが可能である。視標追跡デバイスは、その情報を目視する人の眼球を追跡するように位置決めされる。例えば、視標追跡機能を備えるカメラは、コンピュータ・システムの表示デバイスの下部に設置することもでき、書籍の上部に設置することもできる。当分野で知られている、眼球運動を追跡する任意の技法またはデバイスを使用することができる。
620で1個人の視標追跡データを獲得する。この視標追跡データを、後の処理のためにコンピュータ・システムまたはその他のデータ獲得デバイスによって記憶する。630で、追跡すべき個人すべての視標追跡データが獲得されていない場合には、620で次の個人の視標追跡データを獲得する。
630で、追跡すべき個人すべての視標追跡データが獲得された場合には、640でその情報の各領域ごとの個人データを合計し、かつ/または平均する。一実施形態では、1領域は、Webページ上の1画素領域からなる。しかし、任意の画素数を使用して1領域を定義することができる。その情報の各領域の他の定義も使用可能である。個別目視データの合計は、例えば、個別目視者が個々の領域を目視したかどうか判定し、その領域を目視した目視者の数を合計することによって実現できる。次いで、集約目視データの表現を生成するために、その合計または平均を各領域と関連付ける。集約目視データの合計が集約目視マスクである。
一実施形態では、650でその領域での集約目視データに基づいて各領域に1色を割り当てる。色以外の表現を使用することもでき、例えば、グレー・スケールやぼかしを使用することもできる。一実施形態では、赤とオレンジの濃淡を使用して個々の領域を目視した目視者の過半数を表わし、緑と青の濃淡を使用してその領域を目視した目視者の少数を表し、黒またはグレーを使用してその領域を目視した目視者がなかったことを表す。他の色図式を使用することも可能である。
それらの情報と集約目視マスクの表現に関してアルファ混合を実施する。一実施形態では、背景イメージ(目視者によって目視されたWebページなど)に20%の不透明度を割り当て、前景イメージ(集約目視マスクなど)に80%の不透明度を割り当てる。個々の領域は、集約目視マスク上の色彩以外に、実際にその領域を目視した目視者の割合に基づいた不透明度を持つこともできる。670でアルファ混合イメージを表示する。
図7は、集約目視データに基づいて視覚場面を変更する手法の一実施形態の流れ図である。一実施形態では、例えば、図2の電子システムなどの電子システムによって図7の流れが実現される。しかし、ハードウェア、ソフトウェア、またはハードウェアおよびソフトウェアの任意の組合せを用いることが可能である。
710で目視者に情報を提示する。ユーザに提示される情報は、例えば、コンピュータ・システムの表示デバイス上のWebページやアプリケーション・プログラム、その他任意の種類の情報とすることができる。その情報を目視する人の眼球を追跡するために視標追跡デバイスを位置決めする。当分野で知られている眼球運動を追跡する任意の手法および/またはデバイスを使用することが可能である。
720で、個人用視標追跡データを獲得する。この視標追跡データを、後の処理のためにコンピュータ・システム、またはその他のデータ獲得デバイスによって記憶する。730で、追跡すべき個人すべての視標追跡データが獲得されていない場合は、720で、次の個人の視標追跡データを獲得する。
730で、追跡すべき個人すべての視標追跡データを獲得した場合には、740で、その情報の各領域ごとの個人データを合計、平均する。次いで、750で、この集約データを使用してユーザに提示する情報を変更する。例えば、集約データに基づいてWebページのレイアウトを変更することができる。別の例としては、集約データに基づいてアプリケーション・プログラムのレイアウトを変更することもできる。この集約データを使用して他の種類の情報を変更することも可能である。
以上、本明細書では、本発明をその具体的実施形態を参照して説明した。しかし、本発明のより広範な精神および範囲から逸脱することなく、本発明に様々な改変および変更を加え得ることは明らかであろう。したがって、本明細書および図面は、限定的ではなく例示的意味でのものであるとみなすべきである。
視標追跡機能を備える電子システムの一実施形態を示す構成図である。 集約された視標追跡データをオーバーレイさせたワールド・ワイド・ウェブ・ページの一例を示す図である。 視標追跡データの収集に使用されるワールド・ワイド・ウェブ・ページの第2の例を示す図である。 混合提示技法を使用して集約された視標追跡データをオーバーレイさせた第2のワールド・ワイド・ウェブを示す図である。 目視データをグラフィックで表示するのに使用できる視力勾配の1バージョンを示す図である。 集約目視データを収集し、提示する技法の一実施形態のデータ流れ図である。 集約目視データに基づいて視覚場面を変更する技法の一実施形態の流れ図である。

Claims (12)

  1. それぞれがグラフィック・イメージを提示されており、コンピュータによって生成された表示を見ている複数の個人の眼球運動を表すデータを獲得すること、
    集約視標追跡データを生成するために、前記複数の個人の個々の視標追跡データを集約すること、
    前記複数の個人の前記眼球運動の視覚表現を記述する結果データを前記集約追跡データから生成することであって、前記視覚表現は、前記複数の個人の集約眼球運動データに対応し、かつ前記グラフィック・イメージ変更を含む、前記生成すること、および
    前記結果データをユーザ・アクセス可能な状態にすること
    を含む方法。
  2. 前記結果データをユーザ・アクセス可能な状態にすることが、表示デバイスを用いて前記結果データを表示することを含む請求項1に記載の方法。
  3. 前記結果データをユーザ・アクセス可能な状態にすることが、前記結果データを電子的にアクセス可能な媒体上に記憶することを含む請求項1に記載の方法。
  4. 前記視覚表現が、前記複数の個人の前記眼球運動を表す前記データに基づいて視覚的に変更されている、前記複数の個人によって目視された視覚場面の最小部分として記述する請求項1に記載の方法。
  5. 前記複数の個人の前記眼球運動の視覚表現を記述する結果データを生成することが、前記複数の個人のうち選択された一部分と残りの複数の個人の間の差異を記述する結果データを生成することを含む請求項1に記載の方法。
  6. 前記変更が、視力勾配に基づいて前記視覚表現をぼかすことを含む請求項1に記載の方法。
  7. 前記変更が、前記複数の個人の前記眼球運動を表す前記データの前記視覚表現とカラー化表現とのアルファ混合を含む請求項1に記載の方法。
  8. 前記変更が、個人によって目視されなかった前記視覚場面の領域を変更することを含む請求項1に記載の方法。
  9. それぞれがグラフィック・イメージを提示されており、コンピュータによって生成された表示を見ている複数の個人の眼球運動を表すデータを獲得すること、
    集約視標追跡データを生成するために、前記複数の個人の個々の視標追跡データを集約すること、
    前記複数の個人の前記眼球運動の視覚表現を有する結果データを、前記集約視標追跡データに基づいて生成すること、および
    記結果データに基づいてグラフィック・イメージを変更すること
    を含む方法。
  10. 前記複数の個人の前記眼球運動が、電子システムの表示デバイスから情報を読み取る前記複数の個人に対応する請求項9に記載の方法。
  11. 前記グラフィック・イメージを変更することが、前記視覚場面を提供するWebページのレイアウトを変更することを含む請求項9に記載の方法。
  12. 前記グラフィック・イメージを変更することが、前記視覚場面を提供するアプリケーション・プログラムのレイアウトを変更することを含む請求項9に記載の方法。
JP2003551650A 2001-12-12 2002-12-11 視標追跡データの使用を容易にする技法 Expired - Fee Related JP4299138B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/017,540 US6712468B1 (en) 2001-12-12 2001-12-12 Techniques for facilitating use of eye tracking data
PCT/US2002/039696 WO2003050658A2 (en) 2001-12-12 2002-12-11 Techniques for facilitating use of eye tracking data

Publications (3)

Publication Number Publication Date
JP2005512625A JP2005512625A (ja) 2005-05-12
JP2005512625A5 JP2005512625A5 (ja) 2006-02-09
JP4299138B2 true JP4299138B2 (ja) 2009-07-22

Family

ID=21783163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003551650A Expired - Fee Related JP4299138B2 (ja) 2001-12-12 2002-12-11 視標追跡データの使用を容易にする技法

Country Status (8)

Country Link
US (2) US6712468B1 (ja)
EP (1) EP1465522A4 (ja)
JP (1) JP4299138B2 (ja)
KR (1) KR100976357B1 (ja)
CN (1) CN100382744C (ja)
AU (1) AU2002359678A1 (ja)
HK (1) HK1085894A1 (ja)
WO (1) WO2003050658A2 (ja)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070078552A1 (en) * 2006-01-13 2007-04-05 Outland Research, Llc Gaze-based power conservation for portable media players
DE50012364D1 (de) * 2000-05-16 2006-05-04 Swisscom Mobile Ag Verfahren und terminal zur eingabe von instruktionen
US7000184B2 (en) * 2003-01-24 2006-02-14 The Cobalt Group, Inc. Remote web site editing in a standard web browser without external software
US20040174497A1 (en) * 2003-03-07 2004-09-09 Manish Sharma Method and system for controlling the movement of a device
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US9652032B2 (en) * 2004-03-02 2017-05-16 Brian T. Mitchell Simulated training environments based upon fixated objects in specified regions
US7331929B2 (en) * 2004-10-01 2008-02-19 General Electric Company Method and apparatus for surgical operating room information display gaze detection and user prioritization for control
WO2006060889A1 (en) * 2004-12-09 2006-06-15 Cmetrics Media Inc. Method and system for assessing viewership of a medium
US7438418B2 (en) 2005-02-23 2008-10-21 Eyetracking, Inc. Mental alertness and mental proficiency level determination
US7344251B2 (en) * 2005-02-23 2008-03-18 Eyetracking, Inc. Mental alertness level determination
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
WO2006110472A2 (en) * 2005-04-07 2006-10-19 User Centric, Inc. Website evaluation tool
EP1913555B1 (en) * 2005-08-04 2018-05-23 Philips Lighting Holding B.V. Apparatus for monitoring a person having an interest to an object, and method thereof
US8775975B2 (en) 2005-09-21 2014-07-08 Buckyball Mobile, Inc. Expectation assisted text messaging
JP4929681B2 (ja) * 2005-11-02 2012-05-09 トヨタ自動車株式会社 眼球停留関連電位解析装置及び解析方法
US8602791B2 (en) * 2005-11-04 2013-12-10 Eye Tracking, Inc. Generation of test stimuli in visual media
WO2007056373A2 (en) 2005-11-04 2007-05-18 Eyetracking, Inc. Characterizing dynamic regions of digital media data
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
JP5044237B2 (ja) * 2006-03-27 2012-10-10 富士フイルム株式会社 画像記録装置、画像記録方法、および画像記録プログラム
CN101506849B (zh) * 2006-06-27 2011-12-07 中央大学 可见性评估方法和评估系统
US9606621B2 (en) 2006-07-28 2017-03-28 Philips Lighting Holding B.V. Gaze interaction for information display of gazed items
US7987984B2 (en) * 2006-09-26 2011-08-02 The Procter & Gamble Company Method of marketing for absorbent paper products through branded print packaging
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
US8341022B2 (en) * 2006-12-30 2012-12-25 Red Dot Square Solutions Ltd. Virtual reality system for environment building
WO2008081412A1 (en) * 2006-12-30 2008-07-10 Kimberly-Clark Worldwide, Inc. Virtual reality system including viewer responsiveness to smart objects
US8370207B2 (en) * 2006-12-30 2013-02-05 Red Dot Square Solutions Limited Virtual reality system including smart objects
US20080202968A1 (en) * 2007-02-23 2008-08-28 Thorsten Knobloch Array of sanitary tissue products
US9242775B2 (en) * 2007-02-23 2016-01-26 The Procter & Gamble Company Array of sanitary tissue products
US9327888B2 (en) 2007-02-23 2016-05-03 The Procter & Gamble Company Array of sanitary tissue products
US20080245491A1 (en) * 2007-02-23 2008-10-09 Thorsten Knobloch Array of sanitary tissue products
US8662301B2 (en) * 2007-02-23 2014-03-04 The Procter & Gamble Company Array of particular tissue products
JP5309126B2 (ja) 2007-03-29 2013-10-09 ニューロフォーカス・インコーポレーテッド マーケティング及びエンタテインメントの効率解析を行うシステム、方法、及び、装置
CA2682776A1 (en) * 2007-04-04 2008-10-16 The Procter & Gamble Company Sanitary tissue product roll
WO2008137579A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-informatics repository system
WO2008137581A1 (en) * 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-feedback based stimulus compression device
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
WO2008141340A1 (en) * 2007-05-16 2008-11-20 Neurofocus, Inc. Audience response measurement and tracking system
US8494905B2 (en) 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
US20090030287A1 (en) * 2007-06-06 2009-01-29 Neurofocus Inc. Incented response assessment at a point of transaction
EP2165538A2 (en) * 2007-06-08 2010-03-24 Sorensen Associates Inc. Shopper view tracking and analysis system and method
US20090036755A1 (en) * 2007-07-30 2009-02-05 Neurofocus, Inc. Entity and relationship assessment and extraction using neuro-response measurements
JP5542051B2 (ja) 2007-07-30 2014-07-09 ニューロフォーカス・インコーポレーテッド 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置
KR20100047865A (ko) * 2007-08-28 2010-05-10 뉴로포커스, 인크. 소비자 경험 평가 시스템
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8635105B2 (en) 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
US8392255B2 (en) 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US20090057171A1 (en) * 2007-08-31 2009-03-05 Connie Marie Roetker Array of paper towel products
US20090056891A1 (en) * 2007-08-31 2009-03-05 Kevin Mitchell Wiwi Array of paper towel products
US20090056435A1 (en) * 2007-09-05 2009-03-05 Duval Dean Larry Product array and method of merchandising tissue products
US20090083129A1 (en) 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
US8494610B2 (en) * 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
US20090082692A1 (en) * 2007-09-25 2009-03-26 Hale Kelly S System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures
US8327395B2 (en) * 2007-10-02 2012-12-04 The Nielsen Company (Us), Llc System providing actionable insights based on physiological responses from viewers of media
US20090113297A1 (en) * 2007-10-24 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Requesting a second content based on a user's reaction to a first content
WO2009059246A1 (en) 2007-10-31 2009-05-07 Emsense Corporation Systems and methods providing en mass collection and centralized processing of physiological responses from viewers
ITFI20080049A1 (it) * 2008-03-12 2009-09-13 Sr Labs Srl Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.
US20110141223A1 (en) * 2008-06-13 2011-06-16 Raytheon Company Multiple Operating Mode Optical Instrument
US20100045596A1 (en) * 2008-08-21 2010-02-25 Sony Ericsson Mobile Communications Ab Discreet feature highlighting
US20100145215A1 (en) * 2008-12-09 2010-06-10 Neurofocus, Inc. Brain pattern analyzer using neuro-response data
US20100169792A1 (en) * 2008-12-29 2010-07-01 Seif Ascar Web and visual content interaction analytics
US9357240B2 (en) * 2009-01-21 2016-05-31 The Nielsen Company (Us), Llc Methods and apparatus for providing alternate media for video decoders
US8270814B2 (en) * 2009-01-21 2012-09-18 The Nielsen Company (Us), Llc Methods and apparatus for providing video with embedded media
US8464288B2 (en) * 2009-01-21 2013-06-11 The Nielsen Company (Us), Llc Methods and apparatus for providing personalized media in video
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US20100249636A1 (en) * 2009-03-27 2010-09-30 Neurofocus, Inc. Personalized stimulus placement in video games
US20100295774A1 (en) * 2009-05-19 2010-11-25 Mirametrix Research Incorporated Method for Automatic Mapping of Eye Tracker Data to Hypermedia Content
US20110046473A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Eeg triggered fmri signal acquisition
US20110046502A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Distributed neuro-response data collection and analysis
US8655437B2 (en) * 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
US10987015B2 (en) * 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US8756657B2 (en) * 2009-09-29 2014-06-17 Ebay Inc. Mobile or user device authentication and tracking
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US8209224B2 (en) * 2009-10-29 2012-06-26 The Nielsen Company (Us), Llc Intracluster content management using neuro-response priming data
US8335716B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Multimedia advertisement exchange
US8335715B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Advertisement exchange using neuro-response data
WO2011133548A2 (en) 2010-04-19 2011-10-27 Innerscope Research, Inc. Short imagery task (sit) research method
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
US8375305B1 (en) 2010-05-14 2013-02-12 Amazon Technologies, Inc. Placement of user interface elements based on a window entry or exit point
US8392250B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Neuro-response evaluated stimulus in virtual reality environments
US8392251B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Location aware presentation of stimulus material
WO2012021967A1 (en) 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US8396744B2 (en) 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
US20120089488A1 (en) * 2010-10-12 2012-04-12 Michael Letchford Virtual reality system including smart objects
US10482475B2 (en) 2011-02-10 2019-11-19 Adp Dealer Services, Inc. Systems and methods for providing targeted advertising
EP2693348A4 (en) * 2011-03-30 2014-12-03 Nec Corp DATA-SAVING ESTIMATION DEVICE, DATA-PARENT ESTIMATING METHOD, AND RECORDING MEDIUM
US20130022947A1 (en) * 2011-07-22 2013-01-24 Muniz Simas Fernando Moreira Method and system for generating behavioral studies of an individual
US9256285B2 (en) 2011-08-19 2016-02-09 Thompson Licensing Sa Method for gaze-controlled text size control, and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line
WO2013026725A1 (en) * 2011-08-19 2013-02-28 Thomson Licensing Method for gaze-controlled text size control,and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line
US8854282B1 (en) 2011-09-06 2014-10-07 Google Inc. Measurement method
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US9569986B2 (en) 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
WO2013169237A1 (en) * 2012-05-09 2013-11-14 Intel Corporation Eye tracking based selective accentuation of portions of a display
US9239956B2 (en) * 2012-06-28 2016-01-19 Oliver Hein Method and apparatus for coding of eye and eye movement data
DE102012105664A1 (de) * 2012-06-28 2014-04-10 Oliver Hein Verfahren und Vorrichtung zur Kodierung von Augen- und Blickverlaufsdaten
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9189064B2 (en) * 2012-09-05 2015-11-17 Apple Inc. Delay of display event based on user gaze
US8990843B2 (en) * 2012-10-26 2015-03-24 Mobitv, Inc. Eye tracking based defocusing
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
CN104903818B (zh) 2012-12-06 2018-12-14 谷歌有限责任公司 眼睛跟踪佩戴式设备和使用方法
BR112015013489A2 (pt) 2012-12-11 2017-07-11 Klin Ami sistemas e métodos para a detecção de blink inibição como um marcador de engajamento e percebido saliência estímulo
KR102004000B1 (ko) * 2012-12-26 2019-07-25 두산인프라코어 주식회사 헤드업 디스플레이를 이용한 건설기계의 작업 가이드 디스플레이 장치 및 방법
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US11080734B2 (en) 2013-03-15 2021-08-03 Cdk Global, Llc Pricing system for identifying prices for vehicles offered by vehicle dealerships and other entities
AU2014234955B2 (en) * 2013-03-19 2020-01-02 Commonwealth Scientific And Industrial Research Organisation Automatic detection of task transition
US10402846B2 (en) 2013-05-21 2019-09-03 Fotonation Limited Anonymizing facial expression data with a smart-cam
KR101529241B1 (ko) * 2013-10-07 2015-06-17 황성재 전자기기의 컨텐츠 기반 전자 기기 제어 시스템 및 방법
MX2016004899A (es) 2013-10-17 2017-01-18 Children's Healthcare Of Atlanta Inc Metodos para evaluar el desarrollo de bebes y niños via rastreo ocular.
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
CA2947424A1 (en) * 2014-04-28 2015-11-05 Tobii Ab Determination of attention towards stimuli based on gaze information
US10222953B2 (en) * 2014-04-30 2019-03-05 Disney Enterprises, Inc. Systems and methods for editing virtual content of a virtual space
US10620700B2 (en) 2014-05-09 2020-04-14 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9736503B1 (en) * 2014-09-12 2017-08-15 Google Inc. Optimizing timing of display of a mid-roll video advertisement based on viewer retention data
GB2532243A (en) * 2014-11-13 2016-05-18 Nokia Technologies Oy An apparatus, method and computer program for using gaze tracking information
US9792008B2 (en) 2014-12-16 2017-10-17 Salesforce.Com, Inc. User interface with analytics overlay
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
US10871821B1 (en) 2015-10-02 2020-12-22 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10825058B1 (en) * 2015-10-02 2020-11-03 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10867285B2 (en) 2016-04-21 2020-12-15 Cdk Global, Llc Automatic automobile repair service scheduling based on diagnostic trouble codes and service center attributes
US10332068B2 (en) 2016-04-21 2019-06-25 Cdk Global, Llc Systems and methods for stocking an automobile
US10853769B2 (en) 2016-04-21 2020-12-01 Cdk Global Llc Scheduling an automobile service appointment in a dealer service bay based on diagnostic trouble codes and service bay attributes
US10467658B2 (en) 2016-06-13 2019-11-05 International Business Machines Corporation System, method and recording medium for updating and distributing advertisement
US10880086B2 (en) 2017-05-02 2020-12-29 PracticalVR Inc. Systems and methods for authenticating a user on an augmented, mixed and/or virtual reality platform to deploy experiences
US10326858B2 (en) 2017-05-23 2019-06-18 Cdk Global, Llc System and method for dynamically generating personalized websites
TWI642030B (zh) * 2017-08-09 2018-11-21 宏碁股份有限公司 視覺效用分析方法及相關眼球追蹤裝置與系統
CN111629653B (zh) 2017-08-23 2024-06-21 神经股份有限公司 具有高速眼睛跟踪特征的大脑-计算机接口
WO2019094953A1 (en) 2017-11-13 2019-05-16 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
CN111712192B (zh) 2018-01-18 2024-07-02 神经股份有限公司 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口
US10877969B2 (en) 2018-03-16 2020-12-29 International Business Machines Corporation Augmenting structured data
US11190608B2 (en) 2018-03-21 2021-11-30 Cdk Global Llc Systems and methods for an automotive commerce exchange
US11501351B2 (en) 2018-03-21 2022-11-15 Cdk Global, Llc Servers, systems, and methods for single sign-on of an automotive commerce exchange
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
GB2577711A (en) * 2018-10-03 2020-04-08 Lumen Res Ltd Eye-tracking methods, apparatuses and systems
US11633076B2 (en) 2018-10-26 2023-04-25 The Procter & Gamble Company Sanitary tissue product rolls
CA3060185A1 (en) 2018-10-26 2020-04-26 The Procter & Gamble Company Sanitary tissue product rolls
US11447916B2 (en) 2018-10-26 2022-09-20 The Procter & Gamble Company Paper towel rolls
US10915520B2 (en) 2018-11-30 2021-02-09 International Business Machines Corporation Visual data summaries with cognitive feedback
US12020217B2 (en) 2020-11-11 2024-06-25 Cdk Global, Llc Systems and methods for using machine learning for vehicle damage detection and repair cost estimation
US11080105B1 (en) 2020-11-18 2021-08-03 Cdk Global, Llc Systems, methods, and apparatuses for routing API calls
US11514021B2 (en) 2021-01-22 2022-11-29 Cdk Global, Llc Systems, methods, and apparatuses for scanning a legacy database
US12045212B2 (en) 2021-04-22 2024-07-23 Cdk Global, Llc Systems, methods, and apparatuses for verifying entries in disparate databases
US11803535B2 (en) 2021-05-24 2023-10-31 Cdk Global, Llc Systems, methods, and apparatuses for simultaneously running parallel databases
US20220405333A1 (en) * 2021-06-16 2022-12-22 Kyndryl, Inc. Retrieving saved content for a website
TWI796761B (zh) * 2021-08-19 2023-03-21 崑山科技大學 具有顯示功能的廣告包
US11983145B2 (en) 2022-08-31 2024-05-14 Cdk Global, Llc Method and system of modifying information on file
CN115686199B (zh) * 2022-10-11 2023-05-23 北京津发科技股份有限公司 一种群体眼动轨迹生成方法、装置、计算设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3777222D1 (de) * 1986-04-04 1992-04-16 Applied Science Group Inc Verfahren und geraet zur entwicklung der darstellung der sehzeitverteilung wenn leute fernsehwerbung beobachten.
US4755045A (en) * 1986-04-04 1988-07-05 Applied Science Group, Inc. Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers
JPH04282129A (ja) * 1991-03-08 1992-10-07 Fujitsu Ltd 注視点解析装置
EP0605945B1 (en) 1992-12-15 1997-12-29 Sun Microsystems, Inc. Method and apparatus for presenting information in a display system using transparent windows
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US5886683A (en) * 1996-06-25 1999-03-23 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven information retrieval
US6437758B1 (en) * 1996-06-25 2002-08-20 Sun Microsystems, Inc. Method and apparatus for eyetrack—mediated downloading
US5898423A (en) * 1996-06-25 1999-04-27 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven captioning
US6070098A (en) 1997-01-11 2000-05-30 Circadian Technologies, Inc. Method of and apparatus for evaluation and mitigation of microsleep events
AU1091099A (en) 1997-10-16 1999-05-03 Board Of Trustees Of The Leland Stanford Junior University Method for inferring mental states from eye movements
US6067565A (en) 1998-01-15 2000-05-23 Microsoft Corporation Technique for prefetching a web page of potential future interest in lieu of continuing a current information download
US6405159B2 (en) 1998-06-03 2002-06-11 Sbc Technology Resources, Inc. Method for categorizing, describing and modeling types of system users
US6106119A (en) * 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
US6507802B1 (en) * 2000-02-16 2003-01-14 Hrl Laboratories, Llc Mobile user collaborator discovery method and apparatus
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
US20020107972A1 (en) 2000-09-19 2002-08-08 Keane Kerry C. System and method for distributing media content
US6601021B2 (en) * 2000-12-08 2003-07-29 Xerox Corporation System and method for analyzing eyetracker data

Also Published As

Publication number Publication date
WO2003050658A2 (en) 2003-06-19
EP1465522A2 (en) 2004-10-13
KR20040090958A (ko) 2004-10-27
CN100382744C (zh) 2008-04-23
WO2003050658A3 (en) 2003-10-16
US7029121B2 (en) 2006-04-18
US20040156020A1 (en) 2004-08-12
HK1085894A1 (en) 2006-09-08
AU2002359678A1 (en) 2003-06-23
KR100976357B1 (ko) 2010-08-18
CN1688242A (zh) 2005-10-26
EP1465522A4 (en) 2009-01-21
US6712468B1 (en) 2004-03-30
JP2005512625A (ja) 2005-05-12

Similar Documents

Publication Publication Date Title
JP4299138B2 (ja) 視標追跡データの使用を容易にする技法
Blascheck et al. Visualization of eye tracking data: A taxonomy and survey
Baudisch et al. Focusing on the essential: considering attention in display design
US10545582B2 (en) Dynamic customizable human-computer interaction behavior
Plumlee et al. Zooming versus multiple window interfaces: Cognitive costs of visual comparisons
Franz An empirical approach to the experience of architectural space
US9760993B2 (en) Support apparatus for supporting a user in a diagnosis process
Wirth et al. Evaluation of interaction techniques for a virtual reality reading room in diagnostic radiology
Menges et al. A visualization tool for eye tracking data analysis in the web
Sundstedt et al. A systematic review of visualization techniques and analysis tools for eye-tracking in 3D environments
Weiskopf On the role of color in the perception of motion in animated visualizations
Shao et al. How dynamic information layout in GIS interface affects users’ search performance: integrating visual motion cognition into map information design
McNamara et al. Perceptually-motivated graphics, visualization and 3D displays
Song et al. GazeVis: interactive 3D gaze visualization for contiguous cross-sectional medical images
Tong et al. Effects of speed, motion type, and stimulus size on dynamic visual search: A study of radar human–machine interface
Candela et al. Visualising post-disaster damage on maps: a user study
Kao et al. The integrated gaze, web and object tracking techniques for the web-based e-learning platform
Tague et al. Interactive visualisation of time-based vital signs
Neshati Data visualization and interaction on smartwatch small screens
Kuederle et al. Interacting with image sequences: Detail-in-context and thumbnails
Ismail et al. COVID-19 Vaccination Data Visualization: Issues and Challenges
CN118796029A (zh) 用于确定通用热图的方法
Horowitz et al. Extended Vision for Oncology: A Perceptual Science Perspective on Data Visualization and Medical Imaging
Kuederle et al. Evaluation of viewing methods for magnetic resonance images
Akshay et al. Exploring Eye Gaze Patterns in Three Dimensions: An Innovative Visualization Dashboard

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081126

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090317

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090416

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees