JP5456791B2 - 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法 - Google Patents

空間領域の映像に対する人の注視点を決定するためのシステム及びその方法 Download PDF

Info

Publication number
JP5456791B2
JP5456791B2 JP2011546596A JP2011546596A JP5456791B2 JP 5456791 B2 JP5456791 B2 JP 5456791B2 JP 2011546596 A JP2011546596 A JP 2011546596A JP 2011546596 A JP2011546596 A JP 2011546596A JP 5456791 B2 JP5456791 B2 JP 5456791B2
Authority
JP
Japan
Prior art keywords
signal
image
glasses
signal source
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011546596A
Other languages
English (en)
Other versions
JP2012515579A (ja
Inventor
ストレムボム、ヨハン
グスタフソン、シモン
スコゲ、マルテン
ホルツ・エルベシェ、ヨン・ミカエル
ニステット、ペル
ブリクスト、ペーテル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tobii AB
Original Assignee
Tobii Technology AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tobii Technology AB filed Critical Tobii Technology AB
Publication of JP2012515579A publication Critical patent/JP2012515579A/ja
Application granted granted Critical
Publication of JP5456791B2 publication Critical patent/JP5456791B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明は、概してヒト視線追跡装置に関する。より詳細には、本発明は、観測下のシーンに設けられた光源によって発せられる参照信号によって支援される注視点検出システムに関する。
眼の動きの監視又は追跡、及び人の注視点(ここでは、人が見ている空間中の点の意味として用いる)の検出は、多くの異なる状況で用いられ得る。そのような計測は、人の行動と意識に関する分析において重要な情報源になり得る。この情報は、人によって観察されるテストシーン(ここでは、目に見える物体又は表面が存在する空間であり、その中で注視点が検出され得る空間領域の視覚表象として用いられる)を評価するため、及び各人の特性を評価するため、の両方に用いられ得る。注視点検出の様々な用途は、ソフトウェア及び種々のインターフェースの有用性についての研究、ウェブページ、宣伝行為及び広告の評価、シミュレータ環境におけるパイロットの教育のため、及び安全の重要な役割における監視要員の訓練のための手段の供給、並びに心理学、行動科学及び人間の知覚に関する研究を含む。近年関心が増してきている分野は、宣伝行為及び他のマーケティング経路の評価である。視線追跡情報は特定の商品の宣伝行為の観察被験者の試験から収集され得るし、被験者の反応が引き出される。視線追跡機器は、店舗陳列棚の特定の物品の配列に対する観察者の反応に関する情報を収集するためにも用いられ得る。
これらの応用に加えて、種々のやり方で応答又は反応するために人が見ている領域に関する情報を用いる対話型アプリケーションが存在する。例えば、ショーウィンドウにある商品の広告又は展示が、人がそれを見ているということの検出に反応して見た目を変化させ得る。さらに、コンピュータシステムは、ユーザが興味を持った対象物を表示し、ユーザの種々の動きに対して自動制御で順応することがよりよくできるように、ユーザの注視点に関する連続的な情報を用いることができる。したがって、視線追跡は、人間とコンピュータとの相互作用のためのインターフェースの一部となり得る。表示の内容はソフトウェア中にプログラムされているので、ソフトウェアは、注視点情報とプログラムの動作と相互に関係があり得る。
現在に至るまでの視線追跡によって支援された人の行動に関する研究は限られた人数しか考慮されておらず、多くの市場調査員は、視線追跡技術をこの分野で歴史的に非常に成功した統計的な大量アプローチに持ち込みたいと望んでいる。例えば、多数の被験者に関するある広告キャンペーンに対する累積された反応は、例えば社会への全面的な公開といった将来におけるこのキャンペーンの効率に関する正確な予測を与えることができる。視線追跡装置のこの新たな利用は、技術的なレベルの新たな挑戦につながる。例えば、利用可能な視線追跡装置は、一般に複雑で壊れやすい機械であり、少なくとも関連ある技術分野というよりはマーケティング研究又は行動科学といった領域のバックグラウンドを有するユーザには、その操作は困難であろう。視線追跡技術の大量サンプル研究への適用は、特に2つの事実によって制限される。1つ目として、新しい人に視線追跡装置を適用することは、時間を必要としがちであり、技術的な訓練を必要としがちである。2つ目として、そのインターフェースが複雑であったり物理的に煩わしかったりする場合、多くの潜在的被験者が、そのような機器を用いることをためらったり気乗りがしなかったりしがちである。
上述のように、グループ研究において注視点検出のために適した装置には、被験者間の交換が素早く便利に行われ得ることが重要である。別の基準では、視線追跡装置は、種々の環境において容易に設置可能であるべきであり、被験者が接する視対象は、例えばコンピュータモニタに限定されるべきでない。実際、市場調査の視点からは、視線追跡に基づく研究は、消費者が購入決定の基礎となる視覚情報を受ける種々の環境で興味深い。視線追跡技術が適用される可能性のある心理学実験の範囲は、無制限であるように思われる。
以上まとめると、少なくとも上述のいくつかの問題を解決する視線追跡システムの必要性があるように思われる。
本発明の目的は、テストシーンにおける注視点を検出するための機器を提供することである。
本発明の一態様によれば、システムは、以下の少なくとも4つの機能的に分かれた部分を具備する。
・現在検討されている空間領域(テストシーン)に配置された空間的基準点として用いる1つ以上の赤外線(IR)信号源
・人(被験者)に着用され、IR信号の検出とその人の眼の動きの追跡との2つの機能を有する少なくとも1つのメガネ
・その人の注視点を算出するためのデータ処理・記憶部
・テストシーンの映像を取得するためのシーンカメラ
シーンカメラは、外部装置でもよいし、カメラユニットとしてメガネに一体化させてもよい。発明者はこれら2つの実施形態は等しく有用であると考えているが、本開示ではこのシーンカメラがメガネに一体化されている場合に焦点を当てる。これは本発明の範囲を限定することを意図するものではないし、この特徴を有する実施形態が好ましいことを示すものでもない。事実、「カメラユニット」への言及の大部分は、簡単に言えば必要に応じて「シーンカメラ」に置き換えることができる。
本発明のシステムの出力は、被験者の注視点を表示する信号を含む。注視点は、テストシーンの映像に対して提示される。ここでテストシーンには1つ以上のIR信号源が配置されており、IR信号源はIR光を射出することができるようになっている。1つ以上のメガネのそれぞれは、少なくとも1つのIR信号源からのIR信号を受信し、受信されたIR信号に対応するIR信号源追跡信号を生成するように構成された画像センサを有している。2番目として、各メガネは、前記人の眼の注視方向を決定し、検出された注視方向に対応する視線追跡信号を生成するように構成された視線追跡部を有する。3番目として、各メガネは、(外部シーンカメラとして具体化される場合を除いて)注視点が決定される空間領域に対する、その空間領域の少なくとも1つの映像を取得するように構成されたカメラユニットを具備する。データ処理・記憶部は、(画像センサから)少なくとも1つのIR信号源追跡信号と、(視線追跡部から)視線追跡信号と、(カメラユニットから)少なくとも1つの映像とを取得するために、本発明に係るメガネと通信するように構成されている。データ処理・記憶部は、前記少なくとも1つの取得された映像に対する人の注視点を、少なくとも1つのIR信号源追跡信号、視線追跡信号及び少なくとも1つの映像に関する関数として算出するように構成されている。次に、注視点はテストシーンの映像に直接示してもよい。この表示は、直感で理解でき、すぐに使える表示形式である。
本発明に係るシステムは、セットアップが容易で、フェイルセーフで、正確な注視点データを提供する。計測のロバスト性の一部は、IR信号源の位置とメガネを着用している人の注視方向とを連帯して決定するというメガネの機能のおかげである。メガネのカメラユニット(又はそれぞれ外部シーンカメラ)は、注視点が算出され得るテストシーンに対するテストシーンの映像を与えるように構成されている。視線追跡部及び画像センサは、メガネに、又は互いに固く結合されていることが好ましい。なぜなら、その計測は個々の基準座標系毎に行われ、相対的な方向と位置とが計測間で又は計測中に変化する場合、その基準座標系は安定した相互関係が欠如することになるからである。別の実施形態では、視線追跡部及び画像センサが互いの関係について流動的である場合、基準座標系と相互関係を有することが必要である情報を供給する位置及び方向の表示器又は機能的に同等な機器が提供される。
IR信号源は、少なくとも保護筐体内に配置され適当な締結手段が設けられている場合、考えられるテストシーンであり、高い多用途性を与えるテストシーンの非常に広い範囲内に配置され得る。さらに、多くの被験者は、サングラス又はメガネに慣れているので、本発明のシステムのメガネを着用する際に快適に感じる。本発明のシステムのメガネは、最新技術の機器を含んでいるが、被験者が計測中にリラックスして自然にふるまえるように、なじみのある普通のメガネの外見を有している。
個々の装置についての利用可能な数の制限が多数の被験者を含む研究のボトルネックになるということに対して、本システムは、複数のメガネを提供することができるという長所によって拡張可能である。そのような研究において、メガネとシステムの他の要素との間の無線通信回路を与えることが得策である。データ処理・記憶部が容易に1つのテストシーンの映像に対する全ての被験者の注視点を計算するように構成され得ることで、システムは、データ処理レベルにおける好ましい拡張性を有する。これは直感的に理解できる直接的な表示形式であり、異なる被験者に関する注視点情報をまとめるためにテストシーンが異なる表示を手動で比較するといううんざりする仕事を回避する。この接続において、システムの3つの機能部分が物理的に分離されている必要はないことは強調されるべきである。小型化及び軽量化に対する一般的な傾向に従って、データ処理・記憶部は、IR信号源、メガネ、又はシステムの他の構成要素内に物理的に埋め込まれ得る。画像センサと、IR放射を感知できるカメラユニット又は外部シーンカメラとを一体化することも可能である。多くのシリコンベースのデジタルカメラは、IRスペクトル近傍によい応答性を有する。一方で、多数の被験者を含む研究に用いるように構成された実施形態において、データ処理・記憶部は、拡張性のため、集中化されることが好ましい。このように、データは(いくつかのメガネを用いることができる)分散型の方法で収集されるが、データは、最終的にはその後の処理のため一箇所に蓄積される。特に、カメラユニットは各被験者のテストシーンの固有の映像を取得できるようになっているが、異なる被験者の算出された注視点がテストシーンの1つの映像に提示されることは、非常に有用である。物理的に分散したサブユニットによってデータ処理・記憶部が構成されている実施形態において、これらサブユニットは、映像を用いる集団としての決定を行う。
本発明の第2及び第3の態様に従って、空間領域の映像に対する人の注視点の検出方法、及びコンピュータプログラム製品がさらに与えられる。
一実施形態において、データ処理・記憶部は、テストシーンの映像とIR信号源の位置との結合画像を生成するように構成されている。検出された注視点が高い精度で表示され得るために、IR信号源の位置は映像の座標系における正確な参照点として有用である。
システムは、テストシーンに対するメガネの位置を決定する際に、IR信号源に加えて他の参照点を利用するように構成されている。特に、縁、角及び頂部といった画像特徴の追跡は、IR信号源の追跡を非常によく補完し得る。この補完は、そのような画像特徴の位置がIR信号源に対して決定され得るように、IR信号源の位置の最初の検出後に、特に有用である。
IR信号源は、互いに識別され得るように変調されたIR光を射出する。すなわち、IR信号源は、IRスペクトルを用いて多重化された信号を送信する。このことは、画像センサによって生成されたIR信号源追跡信号の処理を促進する。ふさわしい変調方式は、周波数変調、パルス幅変調、及び直交符号による変調といった時間に対する変調を含む。あるいは、IR信号源は、同期化され、各時間枠の離れた時間帯において信号を射出するように構成されている。他の変形例として、光学的変調が用いられ得る。その場合、IR信号源は、750nm、850nm及び950nmといった異なる波長のものを射出し、IRセンサには、信号源を分離するために吸収フィルタ又は誘電体フィルタが設けられる。また別の変形例では、IR信号源は、異なる偏光特性を有することによって区別され得る。
メガネのIR画像センサは、センサ表面を具備する。センサ表面は、好ましくは平面である。画像センサの固定した又は変化する光学的開口部とセンサ表面との距離は既知である。このように、センサ表面に入射する全ての光線は、基本的に共通の点、すなわち、ピンホールカメラモデルでは光学的開口部の中心を通過することになる。ガウスの光学では、節点がIRビームの入射角度を定義する。さらにセンサ表面上の信号の位置が検出され得る。信号の位置は、最大強度値が受信される、又はサブピクセルの解像度では中心であるピーク強度点でよい。あるいは、センサ表面がある強度閾値に対して2値を取る場合、又はピクセルがしばしば飽和する傾向にある場合は、照射スポットの物理的中心が信号位置として用いられ得る。光学的な開口の中心、信号位置及び光学的開口とセンサ表面との間隔に基づいて、光線の入射角度は算出され得る。好ましくは、この信号は、画像センサによって生成されたIR信号源追跡信号に含まれる。
メガネの視線追跡部は、IR光又は近IR光を射出する1つ以上の機器と、検出器と、評価部とを具備する。IR光又は近IR光を射出する機器は、好ましくはメガネの側面部に配置され、メガネを着用する人の眼に向いている。検出器は、眼の画像を取得し、好ましくはメガネの側面部に配置されている。評価部は、取得された眼の画像を処理し、眼の注視方向を決定する。好ましくは、人の眼を照らすIR光又は近IR光を射出するための機器は、一部がIRミラーとして機能する、又はIR反射コーティングを有しているメガネの透明板の一方における反射を介して眼の方向に向けられている。検出器は、眼が能動的な照射によって画像化されるように、IR光射出装置の波長を有する光を受信するように構成されている。このような波長識別を達成するため、(ローパス)吸収フィルタといった可視光スペクトルから光を取り除くためのフィルタが検出器の前に設けられてもよい。記載されている視線追跡部は眼に近いところに配置されているので、照射及び検出手段を同軸上に配置すること、その結果として網膜反射によって生ずる輝瞳孔状態(「赤目現象」としてなじみがある)で視線追跡を行うことには、注意を要する。したがって、IR光射出装置及び検出器は、眼が暗瞳孔状態で撮像されるように異なる光軸上に配置されていることが好ましい。
本発明の一実施形態によれば、メガネには、被験者の少なくとも1つの眼の前に、第1の偏光フィルタが設けられている。これは、注視方向システムが屋外で用いられる場合、有用である。メガネの板(レンズ)上に層として適切に偏光フィルタが設けられている。なお、その透過軸が第1の偏光フィルタの透過軸と直交する第2の偏光フィルタが、視線追跡部の検出器の前に配置されてもよい。このように、検出器は、板上のフィルタによって偏光させられた光から遮られており、したがって、IR光射出装置からの光の相対的強度を増幅する。さもなければ外部光は、検出器の励起を引き起こし計測を妨害する恐れがある。さらなる効果として、第1の偏光フィルタは、水平面上の被験者の眼に届く不快な太陽光反射を減衰させ得る。そのような反射した太陽光の垂直に偏光した要素は一般に弱いので、着用されている際の透過方向が基本的に垂直である場合、第1のフィルタは、この点で特に効果的である。
重量と体積を抑えるため、メガネの動作に必要なある構成要素は、物理的に分離され、被験者に着用されたベルトに吊り下げられたり、ポケットに入れられたりする支援部に配置され得る。メガネと通信的に結合されているそのような支援部は、(太陽電池や電池といった)電圧源と、計測中に収集された情報を記憶するためのデータバッファと、(適切な形式へのデータの圧縮又は変換といった)データの前処理を実施する処理手段と、関連するメガネ及び/又はデータ処理・記憶部と通信するように構成された無線送受信機とを有する。
メガネの画像センサは、好ましくはそのスキャン方向がメガネが着用された際の被験者の前頭面と平行に配置される、2つの直交するラインセンサから構成される。一方のラインセンサのスキャン方向は、垂直である。ただし、その方向は、好ましくは3〜30度回転している。ある状況では、垂直又は水平線に沿って並べられたIR信号源を配置することは、しばしば都合がよく、ときに必要である。例えば、IR信号源800cと800dがほぼ同じ高さに配置されている図2を参照されたし。ラインセンサのスキャン方向がそのようなラインに垂直であるとき、2つの信号源は、縮退した信号を生じさせ得る。ラインセンサのスキャン方向の開示された配置は、この事象の問題を減少させる。
本実施形態の一実施形態では、システムの少なくとも1つのIR信号源は、省エネルギーモード又はスタンバイモードになり得る。IR信号源が柔軟に種々のテスト環境で容易に用いられることが重要であるので、バッテリーで駆動することが好ましい。バッテリーの充電又は交換の間隔を増加させるために、典型的なテストセッションの継続時間が経過した後にIR信号源は省エネルギーモードに入るように構成され得る。メガネから又はデータ処理・記憶部から所定の信号を適切な無線通信手段を介して受信することで、IR信号源は再活性化され得る。エネルギー消費をさらに減らすため、IR信号源は、好ましくは入射する電磁放射を、IR信号源を動作モードにするのに十分な量の電気エネルギーに変換するように構成された受動的受信手段を具備する。メガネは、そのような電磁放射のための手段を具備し得る。
多数の被験者が視線追跡装置を用いた研究に参加している状況では、データの効率的な収集と提示が不可欠である。したがって、本発明に係る(そのような研究に特別に適合された)システムは、注視点に関して測定されるとき、複数のユーザが同時にテストシーンを見ることができるように、複数の個々のユーザ装置(複数のメガネ)を具備し得る。一方で、そのような多被験者システムは、全ユーザの注視点情報が1箇所に集められるように1つのデータ処理・記憶部を具備することが最も好都合である。これは、注視点情報全体の統計的な解析を助ける。加えて、全被験者の注視点データは、必要に応じてシステムの何れか1つのメガネ、又は外部撮像装置によって取得された1つのテストシーンの映像に対して都合よく提示され得る。
本発明のこれら及び他の態様は、以下に記載された実施形態から明らかであり、それを参照して明確にさせられるであろう。ここで用いるすべての用語は、ここで明確に定義されていない限り、技術分野における一般的な意味で解釈される。
図1は、本発明の一実施形態に係る、少なくとも1人の注視点を検出するためのシステムの概略図である。 図2は、典型的な計測状況に適用した図1のシステムを示す。 図3は、本発明に係る複数の被験者の注視点を検出するように構成されたシステムの概略図である。 図4は、本発明に係る検出システムにおいて使用されるメガネの斜視図である。 図5は、本発明の一実施形態に係る関連する支援部を伴うメガネの概略図である。 図6は、図4のメガネの詳細図であり、ラインセンサのスキャン方向を示す図である。 図7は、本発明に係る角度を識別する画像センサの入射光線の面における断面図である。 図8は、本発明の一実施形態に係る少なくとも1人の注視点を検出するためのシステムで用いられるIR信号源を示す。 図9aは、IR信号源の位置を含む空間領域(テストシーン)の結合画像である。 図9bは、追跡のために適した画像特徴の表示をさらに含む図9aの結合画像である。 図9cは、本発明に係るシステムによって計測された被験者の注視点の表示をさらに含む図9aの結合画像である。 図10aは、複数の被験者の注視点の表示を含む空間領域の結合画像である。 図10bは、位置の関数としての統計的量の表示を含む図10aの結合画像である。 図11は、光学的参照信号の補助を伴い少なくとも1人の注視点を検出する本発明の方法の一実施形態に係る、どのように情報が収集、処理、及び物理的又は機能的に異なる構成要素間で伝達されるのかを示すフローチャートである。 図12は、図11に示す処理の別の実施形態のフローチャートである。 図13は、2つの異なるメガネの位置から計測した、3つのIR信号源への視線に対応する2組の角度を示す(全部が同一平面にある)簡略図である。 図14は、典型的な計測状況に適用したときの、テストシーン映像を撮影するために外部シーンカメラが用いられる図1のシステムの変形例を示す。
本発明の実施形態を添付の図面を参照して説明する。
図1乃至8を広く参照して、本発明に係る注視点検出システム100の構成要素をここに説明する。図1に示すように、システム100は、メガネ400と、2つのIR信号源800(システムはいくつのIR信号源を有していてもよい)と、データ処理・記憶部110とを有する。IR信号源800は、メガネ400によって受信され得るIR光を射出するように構成されている。メガネ400の側は、データ処理・記憶部110と(一方向又は双方向に)通信できる。
図2は、典型的な計測状況で用いられた同システム100を示す。図1のメガネ400は、人(被験者)210に着用されている。メガネ400は、相対的動きがほとんどないように、人210の頭部215にぴったりとフィットするように構成されている。メガネ400が人210の頭部215に対して大きく動くと、特に突然の頭部の動き又は振動の際に、注視点計測の精度が脅かされる。一方で、視線追跡部は注視方向とともに目の位置を繰り返し計測するので、遅い動きは通常何の問題も引き起こさない。図2に示すように、各IR信号源800によって発生されたIR光は、細い光線に集束させられず、半球状に広い立体角の方々に射出される。このことは、被験者210が領域の様々な場所に位置することを可能にし、例えば背が高い被験者が背が低い被験者に続いた場合や、何人かの被験者がテストシーンを座った位置から見ることを希望し、他の被験者が立った位置から見ることを希望した場合等に、IR信号源800の再調整の必要をなくす。データ処理・記憶部110は、演算及び記憶可能で、データを受信及び/又は送信するために本システムの他の構成要素、特にメガネと接続するための通信手段を有する汎用コンピュータとして具体化され得る。
図2に示す典型的な場面において、4つのIR信号源800が、球体、八面体、時計、植物、花瓶、様々な本、及び長方形の箱といった観察対象が入った書棚220に配置されている。観察対象が入った書棚は、この典型的な場面におけるテストシーンである。システム100による人210の注視点の提示は、書棚220の前面におよそ対応するIR信号源800が配置された平面と関係付けられる。
図3は、多数の被験者に用いられるように構成された注視点検出システム300を示す。図1のシステム100のように、それは、データ処理・記憶部110と、複数のIR信号源800とを有する。同時に何人もの被験者を計測してデータ収集することを促進するため、システム300は、機能的には同等で大きさや色などは異なってもよい複数組のメガネ400を有する。すでに記載したとおり、現在計測が行われている被験者がテストシーンに面する適度に広い領域内において観察位置を自由に選択できるように、IR信号源800は多方向へIR光を発する。
図4は、メガネ400の詳細を示す。メガネ400の主な目的は、それを着用する人の注視方向を関知し、テストシーンの方向から来るIR参照信号を受信し、テストシーンの映像を取得することである。データの質を向上させるために、メガネ400は、計測セッションの間、人の頭部に対してほとんど動かないことが重要である。メガネ400が掛けられているとき、メガネ400の側面部404,406は、人の耳の上にあり、鼻板410,412は、人の鼻の上部の上にある。好ましくは、側面部404,406は、弾力があってわずかに内側に力を与えるものであり、人の頭部が動いている間メガネ400を所定の位置に維持するようなものである。側面部404,406の設計は注視点検出と関係する動作に対しては重要性が低く、図4に示すものは一例を意図している。好ましくは、鼻板410,412は、横方向の動きを制限し、メガネ400が鼻の下の方に滑って煩わしいことを防止するような形状と材質である。メガネ400は、光学的に透明な板402,408を備えている。一方は、人の目を撮像する様に構成されたIR検出器(不図示)のためのミラーとして機能するのに対して、他方は、原理上は無くてもよい。対象とするメガネ400の着用者が、視覚に関して何かしらの不具合を被っていない限り、光学的に透明な板402,408は、屈折力を有しない。IRミラーは、可視スペクトル領域では干渉を無視できる多層の薄膜コーティングを用いて、光学的に透明な板402,408のうち少なくとも1つに設けられている。このミラーは、着用したときに目に対向する面に設けられている。板402,408は、メガネ400の重量を増し、その機械的安定性を向上させる。着用者が、その人の他のメガネの着用の習慣に従って無意識にメガネ400を配置する限りにおいては、それらは教育上の目的も果たし得る。特に、メガネ400の適切な位置は、目と板との距離が不快なほど狭くなく、板402,408は、人の自然な注視方向に対して直交し、したがって、基本的に着用者の前頭面FP(図6参照)に対して平行となることになる。右側の側面部406の突起部418は、評価ユニット、前処理手段、電圧源及びシステム100の他の構成要素と通信をするための手段といった、データ収集と関係する機器(図示しない)を含み得る。
メガネ400は、いくつかの計測機器を備える。第1に、視線追跡部(不図示)が設けられている。視線追跡部(不図示)の一部として、不可視のIR光で右眼を照らすIR光源420が突起部418に設けられている。図4に示すメガネ400は、右眼の注視方向を追跡するように構成されているが、左眼や両眼の追跡をするような変形例でも同様に有用である。突起部418に設けられている検出器(不図示)は、光源420で照らされた右眼の画像を(右の板408からの反射を介して)繰り返し取得するように構成されている。各画像から、注視方向を決定するために情報が抽出され得る。この情報は、角膜での光源の反射(閃光)位置や瞳孔の位置に関してでもよいし、処理後の角膜の位置及び目の視軸の方向でもよい。設けられていれば評価部(不図示)によって行われ得る注視点方向の抽出は、既知のアルゴリズムの何れかに従って達成され得る。注視方向は、メガネと共に動く2次元画像平面上の直線座標を用いて表現され得る。ここでより正確には、注視方向は、この画像平面に視軸が交差する点である。後続のデータ処理を容易にするため、IR信号源の位置は、同じ画像平面の座標系によって適切に表現される。あるいは、検出器(不図示)は、そこから眼が見える突起部418上又は側面部406の一部上に配置され得る。特に検出器(不図示)が突起部418に配置される場合、検出器が光源420と同軸又はほぼ同軸ではないことに注意すべきである。さもなければこれは網膜反射を起こし、ある注視方向について望まない輝瞳孔効果を起こし得る。視線検出部(不図示)からの計測データは、視線追跡信号として出力される。
2番目に、画像センサ416がメガネ400の前面に、適切には保護透明板の下に設けられている。この透明板は、短波長を遮断するように構成され得るし、ローパスフィルタ、あるいはIR信号の中心波長付近を中心波長とするバンドパスフィルタでもよい。画像センサ416は、メガネ400に対するテストシーンの位置を決定する際の参照として用いる少なくとも一つのIR信号を受信するように構成されている。画像センサ416は、好ましくは注視点検出のためのシステム100のIR信号源800によって射出されたIR信号以外のIR信号を無視するように構成されている。システムに適した信号は、時間、周波数又は偏光について変調することで、他のIR放射から区別され得る。画像センサ416は、与えられたIR信号の存在を検出できるだけでなく、信号源へ向かう線が導き出され得るように、画像センサ416への入射角を計測することもできる。さらに、受信したIR光の変調は、データ処理・記憶部等で行われる後の処理段階でIR信号源の識別が決定され得るように、符号化され得る。画像センサ416からの計測データは、IR信号源追跡信号として出力される。画像センサ416の詳細及びその適切な変形は、図6及び図7を参照して後述する。
3番目及び最後に、カメラユニット414が、メガネの前面に、好ましくは保護透明板の下に設けられている。メガネ400に対して固定されている画像センサ416及びカメラユニット414の両方は、視差誤差を最小化するように、注視方向が検出されている眼(の視軸)の近くに位置している。なお、画像センサ416及びカメラユニット414の位置は、機能的な不都合なく逆にすることができる。カメラユニット414は、少なくとも1つのIR放射を含まない可視スペクトル内のテストシーンの映像を取得するように構成されている。眼とカメラユニット414との距離は小さいので、カメラユニット414によって取得されたテストシーンの映像は、少なくともその人が注視点を自然な方向からそらさなければ、その時点でのメガネ400を着用する人の視覚対象にほぼ対応する。
図14は、メガネが能動的なカメラユニットを備えていない本システムの他の実施形態を示す。テストシーンの映像(スナップ写真)は、外部のシーンカメラ1400によって代わりに取得される。このようにして取得された映像において、IR信号源の位置は、最終データ処理ステップ前にユーザによって入力される。あるいは、シーンカメラ1400は、可視光及びIR光の両方を受信するように構成され、シーンの視覚対象とIR信号源の位置との両方が見られ得る結合した画像が得られる。
視線追跡部(不図示)、画像センサ416及びカメラユニット414によって収集されたデータ、すなわち、視線追跡信号、IR信号源追跡信号、及び少なくとも1つの映像は、一時的にメガネに保存され得る、又は、有線又は無線通信回線によってシステム100のデータ処理・記憶部110に送信され得る。後の処理及び提示を容易にするために、計測データは一般にタイムスタンプが押される。タイムスタンプは、システム100のデータ生成部に設けられたローカルクロックに基づいて生成される。ローカルクロックは、システム100に既に存在する通信回線を介して同調信号の送信によって、(ローカルクロックを指定する)マスタークロックと同調する。
ある特定の実施形態では、メガネ400の前面には、例えばIR、可視光、音響及びラジオ周波数といった無線活性化信号をIR信号源の期待される場所に向けて送信できる、活性化信号送信機422が設けられている。あるテストシーンにおけるIR信号源を他のテストシーンのそれらとは別にこれらが互いに空間的に近接して配置されていたとしても活性化させることができる光学信号といった、指向性の活性化信号を用いることは有益である。実際、IR信号源がそのような活性化信号によって中断させられ得るスタンバイモードにあったら(これは図8を参照して後に詳述する)、IR信号源は参照信号として用いられ得るIR信号を射出することを含む動作モードに戻ってくる。
図5は、メガネ400の別の実施形態を示す。ここで、メガネ400は、前処理と計測データの(部分的な)評価が実行される支援部500と通信するように構成されている。この実施形態では、通信は無線であり、支援部500にある送受信機510と、メガネ400にあり突起部418に配置されることが好ましい他の送受信機(不図示)との手段によって行われる。あるいは、有線接続がメガネ400と支援部500との間に設けられる。メガネ400は、概して、図4と同じ計測手段、特にIR光源420、検出器(不図示)、画像センサ416、及びカメラユニット414を有する。しかしながら、バッテリーの駆動時間を延ばすため、及び着用者の快適さを増すため、いくつかの構成要素は支援部500に配置されている。重い構成要素をメガネから外すことは、特にメガネ400をかさばらせ重くさせ釣り合い取りを要求することになる質量分布の横方向のゆがみのリスクを減らすことになる。支援部500は、メガネ400の着用者によって着用されるベルトに吊るされ得る。この実施形態では、支援部500は、データバッファ520と、視線追跡信号から注視方向情報を抽出するための評価部530と、データ処理・記憶部110に送信するのに適したフォーマットにデータを変換する前処理手段540とを備える。支援部500は、充電式のバッテリ(不図示)と、主電源スイッチと、メガネ400の活性化信号送信機422のための作動装置(不図示)と、データ処理・記憶部110との通信のための送受信機550とをさらに備える。支援部500からメガネ400までの距離は、支援部500からデータ処理・記憶部110までの距離と大幅に異なり得るので、2つの通信回線には、短距離の通信回線にはBluetooth(登録商標)技術を、長距離の通信回線には無線ローカルエリアネットワーク(WLAN)技術をといったように、異なる技術を使うことができる。支援部500の別の実施形態では、支援部500は、データをバッファリングするためのメモリカードといった局部記憶装置を備えていてもよく、特にデータが最終的にデータ処理・記憶部110に有線で送信される場合は、送受信機550は必ずしも必要でない。
メガネ400のIR画像センサ416の目下の好ましい実施形態のさらに詳しい説明をここに示す。画像センサ416は、2つの直交するラインセンサを備える。それらラインセンサの出力信号から、(IR信号源の視位置は2自由度を有しているので、2つの角度で表され得る)受信方向、及びIR信号の固有値が決定され得る。IR信号源の視位置(テストシーンの平面上への投影)は2自由度を有しているので、受信方向は2つの角度として表される。ここで用いられるラインセンサは、センサのスキャン方向に沿って計測された座標の関数として受信信号を出力する指向性光学センサである。したがって、同じ座標に位置する2つの光源からの寄与、すなわち、スキャン方向に対する垂線は、ラインセンサによって合計される。直交する(又は少なくとも異なるスキャン方向を有する)2つのラインセンサからの信号に基づいて、受信方向の特性を示す2つの角度(又は等価である画像平面座標)が決定され得る。本実施形態では、ラインセンサは、それらの各スキャン方向が図6に示すようにメガネ400を着用する人の前頭面FPと直交するように及び平行となるように、配置されている。一つの発明の特徴として、ラインセンサのスキャン方向は、垂直A及び水平C方向と厳密に一致しない。あるいは、本開示の前節で概説した理由により、スキャン方向B,Dのそれぞれが垂直A及び水平C方向から3〜30度ずれるように、ラインセンサをわずかに回転させるように配置することが好ましいことが見出されている。
図7は、画像センサ416の入射するIR光線712及びリニアセンサのIR光感知面710の垂直軸Nを含む面の断面図である。リニアセンサのスキャン方向は図における左右方向に延び、したがってセンサは、図の平面に対して直交する線に位置している情報源からの寄与を合計することになる。膜の部分702,704は、画像センサ416に光学的な開口部706を規定する。この図において、面710の垂直軸Nは、光学的な開口部706の中心708を通るように描かれている。図の簡略化のため、センサ416は、ピンホールカメラモデルで、具体的には節点と開口部706の中心708とが一致するように、描かれている。離れた節点を有するさらに詳細なモデルは、本開示の実施形態の単純な変形例として、着想され具現され得る。ラインセンサは、下部に図示した曲線であらわされるような、センサ面710の各座標に対する受信強度INTを出力する。この曲線から受信強度はピーク強度点714において最大となるが明らかである。光学的な開口部706と光感知面710との間の距離は既知である。ピーク強度点714から、中心708の光感知面710上への投影708までの距離をも決定することによって、本システムは入射光線712の入射角度αを取得することができる。サブピクセル解像度のため、714の決定に重心計算が用いられ得る。図6と関連して説明するように、第1のラインセンサ710と(略)直交する第2のラインセンサは、同様に、同じ光学的開口部中心708の周囲に設けられ得る。このようにして、光線712の入射方向は、完全に特徴づけられる。当業者に知られているように、入射方向(1組の角度)は、2つのセンサの画像面上での1組の座標と等価である。
前節に記載した通り、ピーク強度点はセンサの面710上の信号の位置を定義する1つの方法である。受照点の幾何学的な中心を抽出するためには、2つ以上のピクセルが最大値となることもあり得るし、おそらくより適している。中心は、受照点の各ピクセルにおける局所強度値によって重み付けられた重心として算出され得る。重心位置は、次式によって与えられる。
Figure 0005456791
ここで、xは座標であり、INTはi番目のピクセルの読み出し輝度である。さらに、センサの点広がり関数が既知であれば、受信した信号パターンは、センサの前画像の取得のために、この関数に対してデコンボリューションされ得る。精度を向上させるため、キャリブレーションステップで決定されるセンサの暗電流は、他の信号処理の前に減算され得る。
図8は、本発明の一実施形態に係るIR信号源800の概略図である。信号源800は、時間変調されたIR光を射出するように構成されたIR光源810と、本システムのメガネに配置された活性化信号送信機からの無線活性化信号を受信するように構成された受信機860とを有する。なお、光源810の開口部に有色の又は偏光のフィルタを配置するさらなる変形がなされることも可能である。変調器820は、光源810に駆動電圧を供給し、それ自身は電圧源840から駆動電圧を供給される。電圧源としての充電式バッテリーを用いることは、本システムの適応性のために有益である。リレー830は、電圧源840及び変調器820に直列に接続されており、変調器820を活性化及び不活性化させるように操作できる。リレー830は、スイッチング回路870からの信号によって操作され得る。スイッチング回路840を制御するためのスイッチング回路870の信号値は、受信機860によって与えられたデータとタイマー850とに基づく。例えば、スイッチング回路870は、活性化信号の各受信に続く所定の期間(計測セッションの期待された持続期間であり得る、例えば5分)において、リレー830に光源810に供給する回路を閉にさせるように構成され得る。この期間が経過した後、IR信号源800は省電力モードに入る。IR信号源800が活性化信号の受信前の待ち時間の間に全くエネルギーを消費しないように、完全に受動的な受信機860を用いることは利点がある。
図9乃至12を参照して、ここに注視点検出システムの機能を説明する。第1に、図11は、本発明の一実施形態における動作においてどのように収集されたデータが処理されるかを示すフローチャートである。視線追跡部ETは、視線追跡信号S1を出力する検出器を有する。IRセンサISは、本システムのIR信号源からIR信号を受信し、IRセンサから見たIR信号源の位置を符号化したIR信号源追跡信号S4を出力する。IR信号源追跡信号は、視線追跡信号S1を特定の座標系に対して関連付けるために用いられるため、これらの信号は同時又はほぼ同時の計測に基づく。表現された典型的な実施形態において、瞳孔の位置、及び視線追跡部のIR光源の角膜反射(閃光)の位置に関する情報は、視線追跡信号S1から導き出され得る。第1の処理ステップP1において、視線追跡信号は個人校正データS2と結合され、注視点S3が取得される。ここでは、個人校正データS2は、
・視軸と眼の光軸との間の水平及び垂直角度と、
・角膜曲率半径と、
・瞳孔の中心と角膜曲率の中心との間の距離と、
を含む。
少なくとも1つの角膜を含む眼の画像に基づいて注視方向(及び、したがって画像平面における注視点)を決定する計算方法は、例えば参照によりここに含まれているE. D. Guestrin and M. Eizenmann in IEEE Transactions on Biomedical Engineering, Vol. 53, No. 6, pp. 1124-1133 (June 2006)に教示されているように、既知である。
(図11の破線長方形内に図示されている)前述の段落に記載されたステップは、被験者毎に一度実施される。ここで議論することは、本実施形態ではデータ流上で連続的に実施される、又はデータが一時的に記憶される場合は後の任意の時点で実施される、データの最終処理及び表示に関する。視線追跡信号S1を一時記憶すること、及び最終処理ステップとの結合において注視点データS3に処理することは、同等な選択であると考えられる。なお、眼のIR画像の動画像列として表され得る視線追跡信号S1のデータ量は、注視点データS3のデータ量よりも非常に大きい。したがって、前処理ステップとしての第1の処理ステップP1を用いることは、実際、本システムの性能に影響を与える。一時記憶の前に第1の処理ステップP1を実施することに代えて、空間及び/又はバンド幅を節約するために、視線追跡信号S1に符号化された画像は、切り取られても、フィルタリングされても、及び/又は圧縮されてもよい。
再び図11を参照すると、IRセンサと(もちろん外部シーンカメラと機能的には同様であり本開示において区別されない)カメラユニットCUとは、任意の時点におけるテストシーンのIR信号源追跡信号S5及び映像S6(スナップ写真)をそれぞれ取得する。第2の処理ステップP2において、IR信号源の位置とテストシーン映像の画像要素との関係S7を取得するために、テストシーンの映像S6と対応するIR信号源追跡信号S5とが比較される。この処理では、カメラユニットCUとIRセンサISとの基準座標系に関するハードウェア校正データS8が用いられる。説明すると、図9aは典型的なテストシーン(図2の書棚220)の映像を示す。この映像で、IR信号源の位置910が二重円として視覚化されている。このように、4つの位置910はテストシーン映像S6の4つの限定的な画像要素に対応し、これら画像要素の識別子(座標)は、関係S7を符号化するために用いられる。第3の処理ステップP3は、その入力変数として、同時に取得した注視点データS3とIR信号源追跡信号S4とを有する。さらに、計算に必要な変数は、ハードウェア校正データS8、及びIR信号源の位置とテストシーン映像との関係S7から導出される。この第3の処理ステップP3は、視線追跡部の動く基準座標系からテストシーン映像S6の基準座標系への注視点S3の変換である。本実施形態では、テストシーン映像の基準座標系は、単純に画像構成要素である。したがって、注視点は、注視点画像要素S9として表現される。第4の処理ステップP4において、注視点画像要素S9は、テストシーンの映像S6上に描かれる(重畳される)。その結果、モニタ、プリンタ、出力ファイル又は電子メッセージといった出力手段OUTに与えられる合成された画像を表すデータS10が生成される。典型的な合成画像を図9cに示す。ここで、注視点は破線の円930で示されている。
第3の処理ステップP3で実施される注視点の変換は、さらに正確には、透視投影である。当業者が理解するように、点の透視投影は、その点が同次座標に与えられれば、線形写像として表現され得る。この透視投影は、メガネが位置を変えなければ、恒等写像である。そうではなくてメガネが動けば(平行移動及び/又は回転したら)、透視投影は、テストシーン映像S6が取得されたときに視線追跡データS1がIR信号源の視覚表象(画像平面点)に収集された時点において、IR信号源の視覚表象(画像平面点)を変換する写像として定義され得る。図13は、メガネが第1の位置R1から第2の位置R2に移動したときに、テストシーンTS内の3つのIR信号源800の視角が、第1の3項(α,α,α)から第2の3項(β,β,β)に変化する仕方の一例を示す。図13は、メガネが両位置において同じ方向に向いており、図内の全ての対象物が同一平面上にある状態の略図であり、実際、各IR信号源への2つの角度が計測される。本実施形態では、透視投影が演繹的にただ無条件にわかるように、メガネの移動は追跡されない。好ましくは、写像は、IR信号源追跡信号S4及びIR信号源の位置とテストシーン映像(IR信号源に対応する画像要素)との関係S7に基づいて推定される。この推定は、直接線形変換手段によって成し遂げられ得る。当業者に理解されるように、透視投影の完全な推定は、少なくとも4つの別個のIR信号源の位置についての情報を必要とする。推定は、わずかしかIR信号源の位置が分からなければ、複数の解を与えることになる。テストシーン映像S6が4つ以上のIR信号源を含んでいれば、余計な解がなく有利となり得る。特に、望まないIR信号源が、反射としてテストシーン面に現れ得るし、テストシーンの後ろの発信源から発せられ得る。どのIR信号源を用いるかの選択は、ユーザによって行われたり、又はシステムによって自動に行われたりする。例えば、4つの最も強いIR信号が、第2の処理ステップP2において選択され得る。
システムの異なる構成部分間の処理ステップの的確な割り当ては、上記ではまだ議論していない。データを記憶すること及び処理することは、技術的な開発の進歩によって、徐々により省エネルギーになり、より物理的に小型化していること盛んである。タスクは、実際多くの相当に均等な方法で割り当てられ得る。例えば、表1に示す割り当てが適用され得る。
Figure 0005456791
表1に示される分布は、次の前提が真であるとき、最適化されていない可能性がある。
(i)支援部と中央データ処理・記憶部との間の通信回線と同様に、メガネとそれらのそれぞれの支援部との通信接続が遅く信頼性が低く、(ii)数値計算がバッテリー消費が低くメガネにおいて実行され得る。このような条件では、次の表2に示すような代わりの割り当てが良好に機能し得る。
Figure 0005456791
繰り返し実験によって、当業者は、本明細書が読まれ理解されたという、ある与えられた状況において、処理ステップの適切な割り当てを見出だすであろう。
図12は、図11に示した処理の他の実施形態を示す。好都合なことに、本実施形態は、視線追跡信号が生成される全瞬間について全てのIR信号源からの信号を受信するIRセンサISには依存しない。1つ以上の失ったIR信号を補償するために、視線追跡信号が生成されるとき、カメラユニットCUがテストシーンの映像を取得することが必要である。簡略化した例として、ある瞬間に、視線追跡信号S1及びテストシーン映像S11(ただしIR信号はない)が受信されたと想定する。この瞬間より前に、上記した実施形態の第2の処理ステップP2のように、IR信号源S5の完全なセットが受信され、テストシーン映像S6に配置される。さらにこの変形実施形態では、画像特徴はその映像から抽出されて配置され、後の使用のために記憶される。全体がS13で表示されている、IR信号源と抽出された画像特徴との配置とは、代わりの第2の処理ステップP5で達成される。出力S13は、図9bに示すように視覚化され得る。ここで、前記したIR信号源の位置910は画像特徴位置920によって補足される。図9bにおいて、以下の画像特徴が抽出されている。すなわち、八面体の上角920a、時計の支柱920b、最も左側の本の上左角920c、及び書棚220の種々の構造要素の交点920dである。これら4つの画像特徴は、テストシーン映像S6と、さらに最近のテストシーン映像S11、すなわち、視線追跡信号S1と同時に取得された映像との両方において、抽出され、配置されているものとする。テストシーン映像S11からの画像特徴S12の抽出は、第3の処理ステップP3の前に実行される抽出ステップP6によってなされる。可能性のあるメガネの移動を補償する透視投影の推定を含む第3の処理ステップP3では、画像特徴の位置は推定アルゴリズムへの入力として用いられる。したがって、1つ以上のIR信号源が失われた場合、透視投影推定問題の解の可能性のあるあいまいさを解消するため、抽出された画像特徴はIR信号源の役割をする。第4の処理ステップP4は、上述の実施形態で行われているように実施される。なお、IR信号源は、参照点としての役割において抽出された画像特徴よりもいくつかの点で優れている。画像特徴の位置は、良好な精度で確立することが困難であり得る。テストシーンの観察角度が変わるとき、特徴を追跡することは、高度な技術を要し得る。そして最も重要なことに、IR光と異なり目に見える画像特徴によって、被検者の注意が散漫となり得る。これらの理由のため、画像特徴は、単にIR信号源の補足としてみなされるべきである。
特徴追跡の代わりとして、受信したIR信号のセットが不完全な場合、メガネの位置の推測のために、カルマンフィルタリングが用いられ得る。光学的参照信号に基づく位置と配列の推定のためのカルマンフィルタは、参照によりここに含まれているG. F. Welch, SCAAT: Incremental tracking with incomplete information, doctoral thesis, University of North Carolina, Chapel Hill (October 1996) に開示されている。IR信号源追跡履歴は、例えば本システムのメガネを着用した人の最大加速度といった条件と関連して用いられる。単純な方法では、最新の推定された透視投影を最初の推測として代わりに用いる。推定を早めることはさておき、これは、推定アルゴリズムが偽の解に集束することを防ぐ。さらに他の代案として、観察履歴が不完全なデータ(これは処理が因果関係なくなされることを意味する)を含む時点の周辺で利用可能であれば、2つの既知の点の間の線形補完が用いられ得る。
本発明に係るシステムによる注視点データの提示は、様々な形式に構成できる。例として、図10aは、破線円1010,1012,1014,1016,1018で示された注視点と結合されたテストシーン映像である。円1010,1012,1014,1016,1018は、異なる被験者の瞬間的な注視点に相当し得る(「ミツバチの群れ」表示('bee swarm' view))。それらは、ゼロでない長さの時間間隔で注視点検出が行われているならば、異なる時点におけるある被験者の注視点にも相当し得る(「注視点プロット」表示('gaze plot' view))。この場合、円1010,1012,1014,1016,1018は、それぞれの観察時間を特定するために注釈テキストで補足され得るし、観察の順番、すなわち観察者の注視経路を示すために線又は矢印で結ばれ得る。円の代わりに、各用途に応じて適切と考えられる点、星、四角、十字又は他の形状が用いられ得る。大きい形はより大きな数値的な不確定性に相当するといったように、各形の大きさは検出精度を示し得る。図10bは、重畳されている網掛け領域を有するテストシーン映像である(「ヒートマップ」表示('heat map' view))。ここで、濃い色は、注視の滞留時間が長いことに対応する。このような滞留時間は、唯一の被験者を含むテストセッションにおいて累積され得るし、複数の被験者の滞留時間の合計であり得る。他のデータ提示方法によれば、複数の関心領域が予め定義されており、一人又は複数の被験者を含むテストセッションにおいて各領域の各滞留時間が累積される。各関心領域は、滞留時間の統計的尺度に応じて影付きになっており、テストシーン映像上に重畳されている(「クラスター表示」('cluster view'))。統計的尺度は、被験者毎の平均合計滞留時間、各凝視の平均持続時間、全滞留時間の百分率、各関心領域を見た被験者数の百分率等を含む。
特定の実施形態では、テストシーン映像は、メガネのカメラユニットによって、(秒あたり10〜100画像、相応しくは秒あたり20〜40画像といった)一定間隔で取得される。このように、テストシーンの動画像列は取得される。次に、注視点は、動かないテストシーン映像上ではなく、テストシーンの動画像列の各フレーム上に重畳された図示記号によって表現される。(なお、ただ一つのテストシーン映像が取得されたときでも、そのような動画像列のフレームは、原理上はIR信号源追跡データに基づいて1テストシーン映像に対する透視変換の適用によって再構築され得る。関連した計算量は、比較的大きくなり得る。)本実施形態は、シミュレータと連結する場合、特に有用となる。テストシーンが被験者に可変視刺激を提示するビデオモニタである研究においても有利である。実際には、異なる時点での注視点に関する結果の総合評価には、所定の瞬間に被験者にどのような映像が提示されたかを考慮すべきである。
本発明が図面と前述の説明に詳細に図示され記載されているが、この図示及び記載は、実例又は典型的なものであり、限定されないものと考えられる。本発明は、開示されている実施形態に限定されない。開示された実施形態の他の変形例は、図面、明細書及び特許請求の範囲の知識の獲得からクレームされた発明の実施において当業者に理解され実施され得る。特許請求の範囲において、「具備する」という語は、他の要素や工程を排除せず、不定冠詞「a」又は「an」は、複数を排除しない。単にある特徴は相互に異なる従属項において列挙されるという事実は、これら特徴の組み合わせが有利に用いられないことを示すものではない。請求項における何れの参照符号も範囲を制限するように解釈されるものではない。
なおこの明細書の記載には以下の発明が含まれている。
[1].
空間領域の映像に対する人の注視点を決定するためのシステム(100)であって:
前記空間領域に配置され、赤外線(IR)信号を射出するように構成された少なくとも1つのIR信号源(800)と;
前記少なくとも1つのIR信号源からの入射IR信号を受信して、少なくとも1つのIR信号源追跡信号を生成するように構成された画像センサ(416)と、
前記人の眼の注視方向を決定して、決定された前記注視方向に応じた視線追跡信号を生成するように構成され視線追跡部と、
を有し、前記人に着用されるように構成された少なくとも1つのメガネ(400)と;そして、
前記少なくとも1つのIR信号源追跡信号と前記視線追跡信号とを取得するように前記メガネと通信して、前記少なくとも1つのIR信号源追跡信号、前記視線追跡信号、及び前記映像に基づいて前記空間領域の前記映像に対する前記人の注視点を算出するように構成されたデータ処理・記憶部(110)と、
を具備するシステム。
[2].
前記空間領域の少なくとも1つの映像を取得するように構成されたシーンカメラ(1400)をさらに具備する、前記[1].に記載のシステム。
[3].
前記少なくとも1つのメガネは、前記空間領域の少なくとも1つの映像を取得するように構成されたカメラユニット(414)をさらに有する、前記[1].に記載のシステム。
[4].
前記データ処理・記憶部は、前記取得された映像とその映像に対する前記少なくとも1つのIR信号源の位置との結合画像を造るように、前記カメラユニットによって取得された映像を前記少なくとも1つのIR信号源追跡信号からの情報に合わせるように構成されている、前記[3].に記載のシステム。
[5].
前記IR信号源は、少なくとも4つあり、前記データ処理・記憶部は、さらに前記映像を前記IR信号源の位置の情報に合わせ、前記IR信号源の前記位置の前記情報は、前記データ処理・記憶部に記憶されている、前記[3].又は前記[4].に記載のシステム。
[6].
前記データ処理・記憶部は、さらに前記メガネの位置の変化を検出するために、前記取得された映像内の画像特徴を抽出し連続的に追跡するように構成されている、前記[5].に記載のシステム。
[7].
前記IR信号は、変調されたIR光であり、
前記データ処理・記憶部は、前記少なくとも1つのIR信号源追跡信号に基づいて、固有のIR信号源を特定するように構成されている、
前記[1].乃至前記[6].のうち何れか1つに記載のシステム。
[8].
前記変調されたIR光は、時間、波長、偏光からなる群のうち少なくとも1つの量に関して変調されている、前記[7].に記載のシステム。
[9].
前記画像センサは、前記入射IR信号を受信するように構成されたセンサ表面(710)を具備し、
前記画像センサは、前記センサ表面上における前記入射IR信号の位置を決定することで、前記センサ表面に対して垂直で前記画像センサの光学的開口部の中心(708)を通過する軸と前記入射IR信号とが成す少なくとも1つの角度を算出するように構成されており、
前記算出された角度は、前記IR信号源追跡信号に含まれている、
前記[1].乃至前記[8].のうち何れか1つに記載のシステム。
[10].
前記メガネの前記視線追跡部は、
射出された光パルスが前記人の眼に向かうように前記メガネの側面部又はレンズフレームに配置されている少なくとも1つのIR光射出装置(420)と、
前記眼から反射してきた光パルスを受信するように前記側面部又はレンズフレームに配置され、前記眼の画像を繰り返し取得するように構成されている検出器と、
前記眼の前記注視方向を決定するように構成された前記検出器と接続された評価部と、
を具備する、
前記[1].乃至前記[9].のうち何れか1つに記載のシステム。
[11].
前記少なくとも1つのIR光射出装置及び前記検出器は、同軸上でないように配置されている、前記[10].に記載のシステム。
[12].
前記メガネは、さらに前記人の眼の前に設けられ、第1の方向に偏光した光を透過させるように構成された少なくとも1つの偏光フィルタを具備し、
前記検出器の前には、前記第1の方向と基本的に直交する第2の方向に偏光した光を透過させるように構成された偏光フィルタがある、
前記[10].又は前記[11].に記載のシステム。
[13].
少なくとも1つの支援部(500)をさらに具備し、
各々の前記支援部は、
1つの前記メガネと通信的に連結されているとともに、
電圧源と、
データバッファと、
データ前処理手段と、
前記データ処理・記憶部と通信するように構成された送受信機(550)と、
前記関連するメガネと通信するように構成された送受信機(510)と、
からなる群のうち少なくとも1つを具備する、
前記[1].乃至前記[12].のうち何れか1つに記載のシステム。
[14].
前記メガネの前記画像センサは、
前記メガネが着用されたときにそのスキャン方向(B)がわずかに垂直方向(A)からずれている第1の光学的ラインセンサと、
そのスキャン方向(D)が前記第1の光学的ラインセンサの前記スキャン方向と実質的に垂直である第2の光学的ラインセンサと、
を具備し、
前記第1の光学的ラインセンサのスキャン方向と前記第2の光学的ラインセンサのスキャン方向とは、前記メガネが着用されたときに前記人の前頭面(FP)と実質的に平行である、
前記[1].乃至前記[13].のうち何れか1つに記載のシステム。
[15].
前記少なくとも1つのIR信号源は、所定の無線信号の受信によって中断可能な省エネルギーモードになり得る、前記[1].乃至前記[14].のうち何れか1つに記載のシステム。
[16].
空間領域の与えられた映像に対する複数の人の注視点を決定するように構成されており、
前記少なくとも1つのメガネは、各々の前記人の視線追跡信号及びIR信号源追跡信号を生成するように構成されており、
前記データ処理・記憶部は、メガネのカメラユニットによって取得された映像に対する各々の前記人の注視点を算出するように構成されている、
前記[1].乃至前記[15].のうち何れか1つに記載のシステム。
[17].
人によって着用され、
空間領域内の少なくとも1つの赤外線(IR)信号源(800)からの入射IR信号を受信するように構成され、少なくとも1つのIR信号源追跡信号を生成するように構成されている画像センサ(416)と、
前記人の眼の注視方向を決定して、前記決定した注視方向に対応する視線追跡信号を生成するように構成された視線追跡部と、
を有するメガネ(400)。
[18].
前記空間領域の少なくとも1つの映像を取得するように構成されたカメラユニット(414)をさらに具備する、前記[17].に記載のメガネ。
[19].
前記少なくとも1つのIR信号源追跡信号、前記視線追跡信号、及び前記少なくとも1つの映像を取得するように、前記メガネと通信するように構成され、前記少なくとも1つのIR信号源追跡信号、前記視線追跡信号、及び前記少なくとも1つの映像に基づいて、前記少なくとも1つの取得された映像に対する前記人の注視点を算出する、データ処理・記憶部(110)を具備するシステムで用いられる、
前記[18].に記載のメガネ。
[20].
前記画像センサは、前記入射IR信号を受信するように構成されたセンサ表面(710)を具備し、
前記画像センサは、前記センサ表面上における前記入射IR信号の位置を決定することで、前記センサ表面に対して垂直で前記画像センサの光学的開口部の中心(708)を通過する軸と前記入射IR信号とが成す少なくとも1つの角度を算出するように構成されており、
前記算出された角度は、前記IR信号源追跡信号に含まれている、
前記[17].乃至前記[19].のうち何れか1つに記載のメガネ。
[21].
前記視線追跡部は、
射出された光パルスが前記人の眼に向かうように前記メガネの側面部又はレンズフレームに配置されている少なくとも1つのIR光射出装置(420)と、
前記眼から反射してきた光パルスを受信するように前記側面部又はレンズフレームに配置され、前記眼の画像を繰り返し取得するように構成されている検出器と、
前記眼の前記注視方向を決定するように構成された前記検出器と接続された評価部と、
を具備する前記[17].乃至前記[20].のうち何れか1つに記載のメガネ。
[22].
前記少なくとも1つのIR光射出装置及び前記検出器は、同軸上でないように配置されている、前記[17].乃至前記[21].のうち何れか1つに記載のメガネ。
[23].
前記人の眼の前に設けられ、第1の方向に偏光した光を透過させるように構成された少なくとも1つの偏光フィルタをさらに具備し、前記検出器の前には、前記第1の方向と基本的に直交する第2の方向に偏光した光を透過させるように構成された偏光フィルタがある、
前記[17].乃至前記[22].のうち何れか1つに記載のメガネ。
[24].
電圧源と、
データバッファと、
データ前処理手段と、
前記データ処理・記憶部と通信するように構成された送受信機(550)と、
前記関連するメガネと通信するように構成された送受信機(510)と、
からなる群のうち少なくとも1つを具備する支援部(500)と通信的に連結されている、
前記[17].乃至前記[23].のうち何れか1つに記載のメガネ。
[25].
前記画像センサは、
前記メガネが着用されたときにそのスキャン方向(B)がわずかに垂直方向(A)からずれている第1の光学的ラインセンサと、
そのスキャン方向(D)が前記第1の光学的ラインセンサの前記スキャン方向と実質的に垂直である第2の光学的ラインセンサと、
を具備し、
前記第1の光学的ラインセンサのスキャン方向と前記第2の光学的ラインセンサのスキャン方向とは、前記メガネが着用されたときに前記人の前頭面(FP)と実質的に平行である、
前記[17].乃至前記[24].のうち何れか1つに記載のメガネ。
[26].
IR信号を受信するように構成され、少なくとも1つのIR信号源追跡信号を生成する画像センサ(416)を含む、人に着用されるように構成された少なくとも1つのメガネ(400)に向けて、当該IR信号源に対する前記メガネの位置を決定するために、IR信号を射出するように構成されたIR信号源(800)。
[27].
前記人の眼の注視方向を決定するように構成され、決定された前記注視方向に応じた視線追跡信号を生成する視線追跡部と、
空間領域の少なくとも1つの映像を取得するように構成されたカメラユニットと、
をさらに含む前記少なくとも1つのメガネと;そして、
前記少なくとも1つのIR信号源追跡信号、前記視線追跡信号、及び前記少なくとも1つの映像を取得するように前記メガネと通信して、前記少なくとも1つのIR信号源追跡信号、前記視線追跡信号、及び前記少なくとも1つの映像に基づいて前記少なくとも1つの取得された映像のうちの1つに対する前記人の注視点を算出するように構成されたデータ処理・記憶部と;
を具備するシステムで用いられる、
前記[26].に記載のIR信号源。
[28].
前記IR信号は変調されたIR光であり、
前記データ処理・記憶部は、前記少なくとも1つのIR信号源追跡信号に基づいて、固有のIR信号源を特定するように構成されている、
前記[26].又は前記[27].に記載のIR信号源。
[29].
前記変調されたIR光は、時間、波長、偏光からなる群のうち少なくとも1つの量に関して変調されている、前記[28].に記載のIR信号源。
[30].
前記IR信号源は、所定の無線信号の受信によって中断可能な省エネルギーモードになり得る、前記[27].乃至前記[29].のうち何れか1つに記載のIR信号源。
[31].
空間領域の少なくとも1つの映像を取得するように構成され、システムで用いられるシーンカメラ(1400)であって、
前記システムは:
前記空間領域に配置され、赤外線(IR)信号を射出するように構成された少なくとも1つのIR信号源(800)と;
前記IR信号を受信するように構成され、少なくとも1つのIR信号源追跡信号を生成するように構成された画像センサ(416)と、
前記人の眼の注視方向を決定するように構成され、決定された前記注視方向に応じた視線追跡信号を生成する視線追跡部(414)と、
を有する少なくとも1つのメガネ(400)と;そして、
前記少なくとも1つのIR信号源追跡信号と前記視線追跡信号とを取得するように前記メガネと通信して、前記少なくとも1つのIR信号源追跡信号、前記視線追跡信号、及び前記映像に基づいて前記空間領域の前記映像に対する前記人の注視点を算出するように構成されたデータ処理・記憶部(110)と;
を具備する、
シーンカメラ。
[32].
さらに可視光とIR光との両方を受信するように構成された、前記[31].に記載のシーンカメラ。
[33].
空間領域の映像に対する人の注視点を決定する方法であって、
(a)少なくとも1つの赤外線(IR)信号源により、IR信号を射出するステップと、
(b)受信機において、前記少なくとも1つのIR信号源からの少なくとも1つの前記IR信号を受信するステップと、
(c)前記少なくとも1つの受信されたIR信号の各々の入射角度を決定するステップと、
(d)カメラユニットにおいて、前記少なくとも1つのIR信号源が含まれた空間領域の映像を取得するステップと、
(e)前記映像に対する前記少なくとも1つのIR信号源の位置を決定するステップと、
(f)前記少なくとも1つのIR信号源の前記位置に対する前記人の注視点を決定するステップと、
(g)前記空間領域と前記注視点との結合画像を出力するステップと、
を具備する方法。
[34].
空間領域の映像に対する複数の人の注視点を決定するように構成されており、
ステップ(a)及び(d)を実施し、
各人に対して、ステップ(b)、(c)、(e)及び(f)を実施し、
前記空間領域の映像と前記少なくとも2人の前記人の前記注視点との結合画像を出力することと、
を具備する前記[33].に記載の方法。
[35].
汎用プロセッサで実行されたときに、前記[33].又は前記[34].のステップを実施するコンピュータが実施可能な指令が記憶されたコンピュータプログラム製品。

Claims (13)

  1. 空間領域の映像に対する人の注視点を決定するためのシステム(100)であって:
    前記空間領域に配置され、赤外線(IR)信号を射出するように構成された少なくとも1つのIR信号源(800)と;
    人に着用されるメガネ(400)であり、
    前記空間領域の前記少なくとも1つのIR信号源(800)からの入射IR信号を受信して、少なくとも1つのIR信号源追跡信号を生成するように構成された画像センサ(416)と、
    視線追跡部と、
    を有していて、
    前記視線追跡部が
    射出された光パルスが前記人の眼に向けられるように、前記メガネの側面部又はレンズフレームに配置された少なくとも1つのIR光射出装置(420)と、
    前記眼から反射された光パルスを受信するように前記側面部又は前記レンズフレームに配置され、前記眼の画像を繰り返し取得するように構成された検出器と、
    前記検出器に接続され、射出された光パルスからの角膜上の反射位置及び瞳孔の位置を含む前記画像から抽出された情報に基づいて、前記眼の注視方向を決定するように構成された評価部と、さらに、
    前記空間領域の少なくとも1つの映像を取得するように構成されたカメラユニット(414)と、
    を有している、
    メガネ(400)と;
    前記画像センサからの前記少なくとも1つのIR信号源追跡信号と前記視線追跡部からの視線追跡信号と前記カメラユニットからの映像を取得するように前記メガネと通信して、前記少なくとも1つのIR信号源追跡信号、前記視線追跡信号、及び前記映像に基づいて前記空間領域の前記映像に対する前記人の注視点を算出するように構成されているとともに、前記取得された映像とその映像に対する前記少なくとも1つのIR信号源の位置との結合画像を造るように、前記カメラユニットによって取得された映像を前記少なくとも1つのIR信号源追跡信号からの情報に合わせるように構成されている、データ処理・記憶部(110)と、
    を具備するシステム。
  2. 前記空間領域の少なくとも1つの映像を取得するように構成されたシーンカメラ(1400)をさらに具備する請求項1に記載のシステム。
  3. 前記IR信号源は、少なくとも4つあり、前記データ処理・記憶部は、さらに前記映像を前記IR信号源の位置の情報に合わせ、前記IR信号源の前記位置の前記情報は、前記データ処理・記憶部に記憶されている、請求項1又は2に記載のシステム。
  4. 前記データ処理・記憶部は、さらに前記メガネの位置の変化を検出するために、前記取得された映像内の画像特徴を抽出し連続的に追跡するように構成されている請求項1乃至3のうち何れか1項に記載のシステム。
  5. 前記IR信号は変調されたIR光であり、
    前記データ処理・記憶部は、前記少なくとも1つのIR信号源追跡信号に基づいて、固有のIR信号源を特定するように構成されている、
    請求項1乃至4のうち何れか1項に記載のシステム。
  6. 前記画像センサは、前記入射IR信号を受信するように構成されたセンサ表面(710)を具備し、
    前記画像センサは、前記センサ表面上における前記入射IR信号の位置を決定することで、前記センサ表面に対して垂直で前記画像センサの光学的開口部の中心(708)を通過する軸と前記入射IR信号とが成す少なくとも1つの角度を算出するように構成されており、
    前記算出された角度は、前記IR信号源追跡信号に含まれている、
    請求項1乃至5のうち何れか1項に記載のシステム。
  7. 前記少なくとも1つのIR光射出装置及び前記検出器は、同軸上でないように配置されている請求項1に記載のシステム。
  8. 前記メガネは、さらに前記人の眼の前に設けられ、第1の方向に偏光した光を透過させるように構成された少なくとも1つの偏光フィルタを具備し、
    前記検出器の前には、前記第1の方向と基本的に直交する第2の方向に偏光した光を透過させるように構成された偏光フィルタがある、
    請求項7に記載のシステム。
  9. 少なくとも1つの支援部(500)をさらに具備し、
    各々の前記支援部は、
    1つの前記メガネと通信的に連結されており、
    電圧源と、
    データバッファと、
    データ前処理手段と、
    前記データ処理・記憶部と通信するように構成された送受信機(550)と、
    前記関連するメガネと通信するように構成された送受信機(510)と、
    からなる群のうち少なくとも1つを具備する、
    請求項1乃至8のうち何れか1項に記載のシステム。
  10. 前記メガネの前記画像センサは、
    前記メガネが着用されたときにそのスキャン方向(B)がわずかに垂直方向(A)からずれている第1の光学的ラインセンサと、
    そのスキャン方向(D)が前記第1の光学的ラインセンサの前記スキャン方向と実質的に垂直である第2の光学的ラインセンサと、
    を具備し、
    前記第1の光学的ラインセンサのスキャン方向と前記第2の光学的ラインセンサのスキャン方向とは、前記メガネが着用されたときに前記人の前頭面(FP)と実質的に平行である、
    請求項1乃至9のうち何れか1項に記載のシステム。
  11. 空間領域の与えられた映像に対する複数の人の注視点を決定するように構成されており、
    前記少なくとも1つのメガネは、各々の前記人の視線追跡信号及びIR信号源追跡信号を生成するように構成されており、
    前記データ処理・記憶部は、メガネのカメラユニットによって取得された映像に対する各々の前記人の注視点を算出するように構成されている、
    請求項1乃至10のうち何れか1項に記載のシステム。
  12. 空間領域の映像に対する人の注視点を決定する方法であって、
    (a)少なくとも1つの赤外線(IR)信号源により、IR信号を射出するステップと、
    (b)受信機において、前記少なくとも1つのIR信号源からの少なくとも1つの前記IR信号を受信するステップと、
    (c)前記少なくとも1つの受信されたIR信号の各々の入射角度を決定するステップと、
    (d)カメラユニットにおいて、前記少なくとも1つのIR信号源を含む空間領域の映像を取得するステップと、
    (e)前記映像に対する前記少なくとも1つのIR信号源の位置を決定するステップと、
    (f)射出されたIR光パルスの角膜上の反射位置及び瞳孔の位置を含む前記人の眼の画像から抽出された情報を用いて、前記空間領域の前記映像に対する前記人の注視点を決定するステップと、
    (g)前記空間領域の前記映像と前記映像に対する前記IR信号源の位置との結合画像を出力するステップと、
    を具備する方法。
  13. 空間領域の映像に対する複数の人の注視点を決定するように構成されており、
    前記ステップ(a)及び(d)を実施し、
    各人に対して、前記ステップ(b)、(c)、(e)及び(f)を実施し、
    少なくとも2人に対して、前記ステップ(g)を実施すること、
    を具備する請求項12に記載の方法。
JP2011546596A 2009-01-26 2009-01-26 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法 Expired - Fee Related JP5456791B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2009/000480 WO2010083853A1 (en) 2009-01-26 2009-01-26 Detection of gaze point assisted by optical reference signals

Publications (2)

Publication Number Publication Date
JP2012515579A JP2012515579A (ja) 2012-07-12
JP5456791B2 true JP5456791B2 (ja) 2014-04-02

Family

ID=40942437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011546596A Expired - Fee Related JP5456791B2 (ja) 2009-01-26 2009-01-26 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法

Country Status (7)

Country Link
US (3) US9495589B2 (ja)
EP (1) EP2389095B1 (ja)
JP (1) JP5456791B2 (ja)
KR (1) KR101564387B1 (ja)
CN (1) CN102292017B (ja)
DK (1) DK2389095T3 (ja)
WO (1) WO2010083853A1 (ja)

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5456791B2 (ja) 2009-01-26 2014-04-02 トビー・テクノロジー・アーベー 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法
US11450113B1 (en) * 2009-06-04 2022-09-20 Masoud Vaziri Method and apparatus for a wearable computer
US9727790B1 (en) * 2010-06-04 2017-08-08 Masoud Vaziri Method and apparatus for a wearable computer with natural user interface
US10019634B2 (en) * 2010-06-04 2018-07-10 Masoud Vaziri Method and apparatus for an eye tracking wearable computer
US10064552B1 (en) 2009-06-04 2018-09-04 Masoud Vaziri Method and apparatus for a compact and high resolution mind-view communicator
US11367164B1 (en) 2009-06-04 2022-06-21 Masoud Vaziri Method and apparatus for super resolution imaging and eye tracking devices
US8872910B1 (en) * 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
EP2499963A1 (en) 2011-03-18 2012-09-19 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for gaze point mapping
US9033502B2 (en) 2011-03-18 2015-05-19 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Optical measuring device and method for capturing at least one parameter of at least one eye wherein an illumination characteristic is adjustable
EP2499960B1 (en) 2011-03-18 2015-04-22 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method for determining at least one parameter of two eyes by setting data rates and optical measuring device
US9183199B2 (en) * 2011-03-25 2015-11-10 Ming-Yuan Wu Communication device for multiple language translation system
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US9135508B2 (en) * 2011-12-20 2015-09-15 Microsoft Technology Licensing, Llc. Enhanced user eye gaze estimation
EP2642425A1 (de) 2012-03-22 2013-09-25 SensoMotoric Instruments GmbH Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung
FR2989482B1 (fr) 2012-04-12 2022-12-23 Marc Massonneau Procede de determination de la direction du regard d'un utilisateur.
US8864310B2 (en) 2012-05-01 2014-10-21 RightEye, LLC Systems and methods for evaluating human eye tracking
US9317113B1 (en) 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
US9575960B1 (en) * 2012-09-17 2017-02-21 Amazon Technologies, Inc. Auditory enhancement using word analysis
EP2709060B1 (en) * 2012-09-17 2020-02-26 Apple Inc. Method and an apparatus for determining a gaze point on a three-dimensional object
WO2014046206A1 (ja) * 2012-09-19 2014-03-27 株式会社ニコン 視線検出装置、表示方法、視線検出装置較正方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、眼鏡レンズ製造方法、印刷物、眼鏡レンズ販売方法、光学装置、視線情報検出方法、光学機器設計方法、光学機器、光学機器選択方法、及び、光学機器製造方法
US20140085198A1 (en) * 2012-09-26 2014-03-27 Grinbath, Llc Correlating Pupil Position to Gaze Location Within a Scene
US9426447B2 (en) * 2012-10-09 2016-08-23 Electronics And Telecommunications Research Institute Apparatus and method for eye tracking
TW201416054A (zh) * 2012-10-22 2014-05-01 Hon Hai Prec Ind Co Ltd 輔助裝置及利用該輔助裝置進行眼藥水投藥的方法
TW201416908A (zh) 2012-10-23 2014-05-01 Pixart Imaging Inc 瞳孔追蹤裝置
WO2014076048A2 (en) * 2012-11-19 2014-05-22 Orangedental Gmbh & Co. Kg Magnification loupe with energy-harvesting system
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
US8919969B2 (en) * 2012-11-29 2014-12-30 3M Innovative Properties Company On-product projection for digital merchandizing
US9681982B2 (en) 2012-12-17 2017-06-20 Alcon Research, Ltd. Wearable user interface for use with ocular surgical console
WO2014115387A1 (ja) * 2013-01-28 2014-07-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN105142498B (zh) * 2013-03-15 2022-10-11 感知技术有限公司 增强光学和感知数字护目镜
US9607584B2 (en) * 2013-03-15 2017-03-28 Daqri, Llc Real world analytics visualization
US9596508B2 (en) 2013-03-15 2017-03-14 Sony Corporation Device for acquisition of viewer interest when viewing content
KR20160025522A (ko) * 2013-06-28 2016-03-08 톰슨 라이센싱 위치 감지와 뷰들의 적응 수를 갖는 멀티뷰 3차원 디스플레이 시스템 및 방법
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103353667B (zh) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
TWI505260B (zh) * 2013-07-30 2015-10-21 Univ Nat Chiao Tung 頭戴式人眼追蹤系統
US10345903B2 (en) * 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测系统及方法
WO2015015454A2 (en) * 2013-07-31 2015-02-05 Saar Wilf Gaze tracking system
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103431980A (zh) 2013-08-22 2013-12-11 北京智谷睿拓技术服务有限公司 视力保护成像系统及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
EP3041400A1 (en) * 2013-09-03 2016-07-13 Tobii AB Portable eye tracking device
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
JP2015061339A (ja) * 2013-09-17 2015-03-30 株式会社日立製作所 結線作業支援システム
US10008124B1 (en) 2013-09-18 2018-06-26 Beth Holst Method and system for providing secure remote testing
US11327302B2 (en) 2013-09-18 2022-05-10 Beth Holst Secure capture and transfer of image and audio data
JP6171781B2 (ja) * 2013-09-20 2017-08-02 大日本印刷株式会社 視線分析システム
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
EP2886039B1 (en) * 2013-12-17 2019-08-21 Microsoft Technology Licensing, LLC Method and see-thru display device for color vision deficit correction
WO2015103444A1 (en) * 2013-12-31 2015-07-09 Eyefluence, Inc. Systems and methods for gaze-based media selection and editing
JP6123694B2 (ja) * 2014-02-10 2017-05-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
GB2523356A (en) * 2014-02-21 2015-08-26 Tobii Technology Ab Apparatus and method for robust eye/gaze tracking
US9330302B2 (en) 2014-02-26 2016-05-03 Microsoft Technology Licensing, Llc Polarized gaze tracking
US9361519B2 (en) * 2014-03-28 2016-06-07 Intel Corporation Computational array camera with dynamic illumination for eye tracking
US20150302422A1 (en) * 2014-04-16 2015-10-22 2020 Ip Llc Systems and methods for multi-user behavioral research
JP6445784B2 (ja) * 2014-05-16 2018-12-26 キヤノン株式会社 画像診断支援装置、その処理方法及びプログラム
US9727136B2 (en) * 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
JP6311461B2 (ja) * 2014-06-05 2018-04-18 大日本印刷株式会社 視線分析システムおよび視線分析装置
US9132957B1 (en) * 2014-06-09 2015-09-15 Amazon Technologies, Inc. Processing of misplaced items to resolve inventory defects
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
KR102197536B1 (ko) * 2014-08-18 2020-12-31 엘지디스플레이 주식회사 이동 플리커가 감소된 입체영상 표시장치
EP4032463A1 (en) * 2014-08-20 2022-07-27 California Baptist University Systems and methods for monitoring eye health
EP3234734A1 (en) 2014-12-16 2017-10-25 Koninklijke Philips N.V. Automatic radiology reading session detection
JP6601417B2 (ja) * 2014-12-17 2019-11-06 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10169535B2 (en) * 2015-01-16 2019-01-01 The University Of Maryland, Baltimore County Annotation of endoscopic video using gesture and voice commands
CN107533634A (zh) * 2015-03-23 2018-01-02 控制辐射系统有限公司 眼睛跟踪系统
CN107533362B (zh) * 2015-05-08 2020-10-16 苹果公司 眼睛跟踪设备和用于操作眼睛跟踪设备的方法
JP7043262B2 (ja) 2015-06-30 2022-03-29 スリーエム イノベイティブ プロパティズ カンパニー 照明器
KR102091055B1 (ko) 2015-08-11 2020-03-20 주식회사 소니 인터랙티브 엔터테인먼트 헤드 마운트 디스플레이
US20170045935A1 (en) 2015-08-13 2017-02-16 International Business Machines Corporation Displaying content based on viewing direction
US10061383B1 (en) * 2015-09-16 2018-08-28 Mirametrix Inc. Multi-feature gaze tracking system and method
CN105615821A (zh) * 2016-01-21 2016-06-01 吉林大学 一种偏光视力检测装置
US9905244B2 (en) * 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing
KR101887375B1 (ko) * 2016-02-25 2018-08-13 이상훈 눈의 망막과 공막의 혈관을 촬영하는 촬영장치 및 이를 이용하여 진단하는 방법
EP3239870B1 (en) * 2016-04-28 2021-06-02 Essilor International A method for monitoring the behavior of a cohort group of members
EP3563217A1 (en) 2016-09-27 2019-11-06 Tobii AB Portable eye tracking device
US9898082B1 (en) 2016-11-01 2018-02-20 Massachusetts Institute Of Technology Methods and apparatus for eye tracking
US10110802B2 (en) 2016-12-30 2018-10-23 Axis Ab Historical gaze heat map for a video stream
US10366540B2 (en) * 2017-03-23 2019-07-30 Htc Corporation Electronic apparatus and method for virtual reality or augmented reality system
DE102017207960A1 (de) 2017-05-11 2018-11-15 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
US20180357670A1 (en) * 2017-06-07 2018-12-13 International Business Machines Corporation Dynamically capturing, transmitting and displaying images based on real-time visual identification of object
US10304207B2 (en) 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking
JP6943672B2 (ja) * 2017-08-04 2021-10-06 株式会社ディスコ 加工装置の情報伝達機構
IL275071B1 (en) * 2017-12-07 2024-02-01 Eyefree Assisting Communication Ltd Communication system and method
WO2019123422A1 (en) * 2017-12-22 2019-06-27 Sr Labs S.R.L. Mapping method and system for mapping a real environment
US11164197B2 (en) * 2018-04-13 2021-11-02 Shopper Scientist Llc Shopping time allocated to product exposure in a shopping environment
US20210191126A1 (en) * 2018-07-31 2021-06-24 Hewlett-Packard Development Company, L.P. Projecting images onto a face of a user
US10921883B2 (en) * 2019-01-17 2021-02-16 International Business Machines Corporation Eye tracking for management of mobile device
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
IL269809B (en) * 2019-10-03 2021-12-01 Eyejets Ltd A compact retinal scanning device for tracking pupil movements of a user's eye and its applications
CN112651270A (zh) * 2019-10-12 2021-04-13 北京七鑫易维信息技术有限公司 一种注视信息确定方法、装置、终端设备及展示对象
EP3826432A1 (en) 2019-11-22 2021-05-26 Oberalp Spa Headlamp with an ai unit
WO2021257797A1 (en) * 2020-06-18 2021-12-23 Northwestern University Infrared tele-video-oculography for remote evaluation of eye movements
US11350506B1 (en) 2021-05-03 2022-05-31 Ober Alp S.P.A. Adaptive illumination control via activity classification
US11503998B1 (en) 2021-05-05 2022-11-22 Innodem Neurosciences Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases
US20220390771A1 (en) * 2021-06-07 2022-12-08 Blink Technologies Inc. System and method for fitting eye wear
DE102021208483A1 (de) * 2021-08-05 2023-02-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Betreiben einer Lasereinheit in Abhängigkeit von einem erkannten Zustand eines Objekts und Laservorrichtung
CN113693553A (zh) * 2021-09-14 2021-11-26 首都医科大学附属北京儿童医院 消除眼动检测中冷效应干扰的方法及装置
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system
US11800244B1 (en) 2022-08-13 2023-10-24 Mojtaba Vaziri Method and apparatus for an imaging device

Family Cites Families (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0125808A3 (en) * 1983-04-18 1986-01-29 Lee S. Weinblatt Eye movement monitoring technique
IL82731A (en) * 1987-06-01 1991-04-15 El Op Electro Optic Ind Limite System for measuring the angular displacement of an object
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
US4967268A (en) * 1989-07-31 1990-10-30 Stereographics Liquid crystal shutter system for stereoscopic and other applications
US5325192A (en) * 1992-07-24 1994-06-28 Tektronix, Inc. Ambient light filter for infrared linked stereoscopic glasses
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
US6381339B1 (en) * 1997-01-15 2002-04-30 Winton Emery Brown Image system evaluation method and apparatus using eye motion tracking
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US6396461B1 (en) * 1998-08-05 2002-05-28 Microvision, Inc. Personal display with vision tracking
DE19838246C2 (de) * 1998-08-22 2001-01-04 Daimler Chrysler Ag Bispektrales Fenster für einen Reflektor und Reflektorantenne mit diesem bispektralen Fenster
US6243076B1 (en) * 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
DE19953835C1 (de) * 1999-10-30 2001-05-23 Hertz Inst Heinrich Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
US7431455B2 (en) * 2005-03-22 2008-10-07 Amo Manufacturing Usa, Llc Pupilometer for pupil center drift and pupil size measurements at differing viewing distances
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US7266995B2 (en) * 2001-08-10 2007-09-11 Jenser Technology Ab Method and instrument for measuring surface tension
GB0119859D0 (en) * 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
JP2003225207A (ja) * 2002-02-04 2003-08-12 Minolta Co Ltd 視線検出装置
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
JP2004113755A (ja) * 2002-09-27 2004-04-15 Photron Ltd 視点検出カメラ及び視点の自動分析装置
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US6637883B1 (en) 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US20070004657A1 (en) 2003-11-17 2007-01-04 Orna Mor Diagnosis and treatment of kidney fibrosis and other fibrotic diseases
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
JP2005253778A (ja) * 2004-03-12 2005-09-22 Gen Tec:Kk 視線検出方法及び同装置
JP4580678B2 (ja) * 2004-04-28 2010-11-17 株式会社ディテクト 注視点位置表示装置
US7720264B2 (en) * 2004-05-10 2010-05-18 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for pupil detection for security applications
PT1607840E (pt) * 2004-06-18 2015-05-20 Tobii Ab Controlo ocular de um computador
US7865834B1 (en) * 2004-06-25 2011-01-04 Apple Inc. Multi-way video conferencing user interface
EP1782228A1 (en) * 2004-08-03 2007-05-09 Silverbrook Research Pty. Ltd Walk-up printing
US20060149426A1 (en) * 2005-01-04 2006-07-06 Unkrich Mark A Detecting an eye of a user and determining location and blinking state of the user
US7438414B2 (en) * 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
WO2007023798A1 (ja) * 2005-08-23 2007-03-01 National University Corporation Shizuoka University 瞳孔検出装置及び瞳孔検出方法
JP4633043B2 (ja) * 2005-12-27 2011-02-16 パナソニック株式会社 画像処理装置
US7747068B1 (en) * 2006-01-20 2010-06-29 Andrew Paul Smyth Systems and methods for tracking the eye
WO2007085682A1 (en) * 2006-01-26 2007-08-02 Nokia Corporation Eye tracker device
US20070237387A1 (en) 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
US7542210B2 (en) * 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US8073719B2 (en) * 2006-06-30 2011-12-06 Rearden Commerce, Inc. System and method for core identity with personas across multiple domains with permissions on profile data based on rights of domain
KR100820639B1 (ko) * 2006-07-25 2008-04-10 한국과학기술연구원 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법
US8500278B2 (en) * 2007-03-08 2013-08-06 Liang Chen Apparatus and method for objective perimetry visual field test
WO2008141460A1 (en) * 2007-05-23 2008-11-27 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
CN100491903C (zh) * 2007-09-05 2009-05-27 北京航空航天大学 一种结构光视觉传感器结构参数标定方法
US7618144B2 (en) * 2008-01-07 2009-11-17 Optical Physics Company System and method for tracking eye movement
KR101446559B1 (ko) * 2008-03-24 2014-10-06 삼성전자주식회사 3차원 영상 시청을 위한 신호생성방법 및 이를 적용한영상시청장치
KR100947990B1 (ko) * 2008-05-15 2010-03-18 성균관대학교산학협력단 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법
US9398848B2 (en) * 2008-07-08 2016-07-26 It-University Of Copenhagen Eye gaze tracking
US8136944B2 (en) * 2008-08-15 2012-03-20 iMotions - Eye Tracking A/S System and method for identifying the existence and position of text in visual media content and for determining a subjects interactions with the text
US7736000B2 (en) * 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
WO2010062481A1 (en) * 2008-11-02 2010-06-03 David Chaum Near to eye display system and appliance
JP5456791B2 (ja) 2009-01-26 2014-04-02 トビー・テクノロジー・アーベー 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法
US7810926B2 (en) * 2009-02-15 2010-10-12 International Business Machines Corporation Lateral gaze angle estimation using relative eye separation
US8553936B2 (en) * 2009-03-03 2013-10-08 The Ohio State University Gaze tracking measurement and training system and method
EP2238889B1 (en) * 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker
US20110085700A1 (en) * 2009-07-13 2011-04-14 Lee Hans C Systems and Methods for Generating Bio-Sensory Metrics
ES2746378T3 (es) * 2009-07-16 2020-03-05 Tobii Ab Unidad de detección ocular que usa flujo de datos paralelo
US8500281B2 (en) * 2009-08-19 2013-08-06 Electronics And Telecommunications Research Institute Apparatus for irradiating beam at user's eye gaze point and operation method thereof
US8467133B2 (en) * 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US8878773B1 (en) * 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
US8531355B2 (en) * 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US20130083007A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Changing experience using personal a/v system
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US8879801B2 (en) * 2011-10-03 2014-11-04 Qualcomm Incorporated Image-based head position tracking method and system
WO2013066790A1 (en) * 2011-11-02 2013-05-10 Intuitive Surgical Operations, Inc. Method and system for stereo gaze tracking
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
JP5602708B2 (ja) * 2011-11-09 2014-10-08 楽天株式会社 注視位置推定システム、注視位置推定システムの制御方法、注視位置推定装置、注視位置推定装置の制御方法、プログラム、及び情報記憶媒体
US8860660B2 (en) * 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US8955973B2 (en) * 2012-01-06 2015-02-17 Google Inc. Method and system for input detection using structured light projection
EP2642425A1 (de) * 2012-03-22 2013-09-25 SensoMotoric Instruments GmbH Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung
CN104169838B (zh) * 2012-04-12 2017-07-21 英特尔公司 基于人眼追踪而选择性地使显示器背光
WO2014043142A1 (en) * 2012-09-11 2014-03-20 Augmented Vision, Inc. Compact eye imaging and eye tracking apparatus
US9039179B2 (en) * 2012-12-11 2015-05-26 Elwha Llc Unobtrusive active eye interrogation
US9179833B2 (en) * 2013-02-28 2015-11-10 Carl Zeiss Meditec, Inc. Systems and methods for improved ease and accuracy of gaze tracking
GB2511868B (en) * 2013-03-15 2020-07-15 Tobii Ab Eye/gaze tracker and method of tracking the position of an eye and/or a gaze point of a subject
US9468373B2 (en) * 2013-09-24 2016-10-18 Sony Interactive Entertainment Inc. Gaze tracking variations using dynamic lighting position
US9480397B2 (en) * 2013-09-24 2016-11-01 Sony Interactive Entertainment Inc. Gaze tracking variations using visible lights or dots
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
GB2523356A (en) * 2014-02-21 2015-08-26 Tobii Technology Ab Apparatus and method for robust eye/gaze tracking
US9330302B2 (en) * 2014-02-26 2016-05-03 Microsoft Technology Licensing, Llc Polarized gaze tracking
US9510753B2 (en) * 2014-02-27 2016-12-06 Lc Technologies, Inc. Asymmetric aperture for eyetracking
US9552061B2 (en) * 2014-03-26 2017-01-24 Microsoft Technology Licensing, Llc Eye gaze tracking using binocular fixation constraints
US9329684B2 (en) * 2014-06-02 2016-05-03 Intel Corporation Eye tracking with detection of adequacy of lighting
US9355315B2 (en) * 2014-07-24 2016-05-31 Microsoft Technology Licensing, Llc Pupil detection
US20170045935A1 (en) * 2015-08-13 2017-02-16 International Business Machines Corporation Displaying content based on viewing direction

Also Published As

Publication number Publication date
US9495589B2 (en) 2016-11-15
EP2389095A1 (en) 2011-11-30
US10635900B2 (en) 2020-04-28
CN102292017B (zh) 2015-08-05
EP2389095B1 (en) 2014-10-01
CN102292017A (zh) 2011-12-21
JP2012515579A (ja) 2012-07-12
US9779299B2 (en) 2017-10-03
US20110279666A1 (en) 2011-11-17
US20140146156A1 (en) 2014-05-29
US20180232575A1 (en) 2018-08-16
DK2389095T3 (da) 2014-11-17
KR20110124246A (ko) 2011-11-16
KR101564387B1 (ko) 2015-11-06
WO2010083853A1 (en) 2010-07-29

Similar Documents

Publication Publication Date Title
JP5456791B2 (ja) 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法
CN106132284B (zh) 光学眼动追踪
EP2710516B1 (en) Systems and methods for identifying gaze tracking scene reference locations
CN109997174B (zh) 可穿戴光谱检查系统
CN104838326B (zh) 可佩戴的食物营养反馈系统
Lee et al. 3D gaze tracking method using Purkinje images on eye optical model and pupil
US10007338B2 (en) Method of interaction by gaze and associated device
CN103558909B (zh) 交互投射显示方法及交互投射显示系统
CN106663183A (zh) 眼睛跟踪及用户反应探测
Li et al. Ultra-low power gaze tracking for virtual reality
US20200297206A1 (en) System for assessing a health condition of a user
JP2016510517A (ja) ウエアラブル視線計測デバイス及び使用方法
US20170263017A1 (en) System and method for tracking gaze position
KR20130107981A (ko) 시선 추적 장치 및 방법
CN110275602A (zh) 人工现实系统和头戴式显示器
CN107773248A (zh) 眼动仪及图像处理方法
CN103631503B (zh) 信息交互方法及信息交互装置
EP3075315B1 (en) System and computer-implemented method for monitoring the visual behavior of a person
CN207666574U (zh) 自动视力检查装置
US20230107167A1 (en) Vision screening device, vision impairment screening system, improved vision screening process, method of assessment, and method of use
Du et al. Location Estimation from an Indoor Selfie
JP2024035533A (ja) 情報処理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140108

R150 Certificate of patent or registration of utility model

Ref document number: 5456791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees