JP6340503B2 - 目追跡システム及び利き目を検出する方法 - Google Patents

目追跡システム及び利き目を検出する方法 Download PDF

Info

Publication number
JP6340503B2
JP6340503B2 JP2017525855A JP2017525855A JP6340503B2 JP 6340503 B2 JP6340503 B2 JP 6340503B2 JP 2017525855 A JP2017525855 A JP 2017525855A JP 2017525855 A JP2017525855 A JP 2017525855A JP 6340503 B2 JP6340503 B2 JP 6340503B2
Authority
JP
Japan
Prior art keywords
eye
tracking system
accuracy score
pig
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017525855A
Other languages
English (en)
Other versions
JP2018505458A (ja
Inventor
リウ クン
リウ クン
ニスティコ ヴァルター
ニスティコ ヴァルター
チン ハオ
チン ハオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Original Assignee
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH filed Critical SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Publication of JP2018505458A publication Critical patent/JP2018505458A/ja
Application granted granted Critical
Publication of JP6340503B2 publication Critical patent/JP6340503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本発明は、目追跡システム及び目追跡システムの操作方法に関する。
従来の目追跡システム及び目追跡装置は、通常、ユーザの目の画像を捕捉し、そこから視線方向、注視点又は他の目の特徴を決定している。このような用途では、ユーザの目の位置、目の向き又は他の特性が、決定されることがある。例えば光軸と目の視軸とのずれといった、ユーザ固有の特性を考慮できるように、キャリブレーション処置が、目追跡システムをキャリブレーションするために行われることがある。このようなキャリブレーション処置中、通常、キャリブレーションポイント(「スティミュラスポイント」とも呼ばれる)が、ディスプレイにタイムリーに表示される。ユーザは、これらのキャリブレーションポイントを、自身の目で凝視しなければならない。そうしている間に、目追跡システムは、ユーザの目の画像を捕捉し、視線又は注視点を計算し、計算された注視点と図示のキャリブレーションポイントの位置とを比較し、計算された注視点と図示のキャリブレーションポイントとの差分を最小化するマップを決定する。このように、ユーザ固有の目の特性を考慮することによって、目追跡品質は、向上し得る。
本発明の目的は、自身の目に関するより多くのユーザ固有の特性を提供し得る、特にロバスト性又は目追跡の正確性を向上させ得る、目追跡システムの操作方法及び目追跡システムを提供することである。
この目的は、ユーザの左目及び右目の何れかが利き目であるか否かを決定する目追跡装置の操作方法及び独立請求項に係る目追跡システムによって、達成される。本発明の有利な実施形態が、独立請求項に提供される。
本発明に係る、ユーザの左目及び右目の何れかが利き目であるか否かを決定する目追跡システムの操作方法によれば、ユーザの左目及び右目の少なくとも1つの画像が捕捉される。また、少なくとも1つの画像に基づいて、かつ所定の精度関数に従って、左目の左精度スコア及び右目の右精度スコアが決定される。さらに、少なくとも左精度スコア及び右精度スコアに依拠して、ユーザの左目及び右目の何れかが利き目であるか否かが決定される。
左精度スコア及び右精度スコアを決定することによって、特にこれらの精度スコアが左目及び右目に関連する追跡精度についての情報をそれぞれ別個に与える場合、利き目が存在するか否かを容易に決定することができる。利き目を知ることによって、追跡品質を劇的に向上させることができる。この理由は、通常、両目に関連するデータが、目追跡において使用され、それゆえ等しく重み付けされるためである。これは、利き目が存在する場合又は弱い目が存在する場合、例えば計算された注視点に関連する、目追跡の結果を、ひどく歪めてしまう可能性がある。有利には、本発明によれば、利き目が存在するか否かを決定することができ、さらに、この結果を、例えば目追跡目的であるが診断目的でもある場合に、使用することができる。人間の利き目の検出は、視神経麻痺及び弱視のような、両眼離反運動の目診断に使用することができる。さらに、目追跡システムの注視点精度は、強固な利き目又は両眼離反運動の存在が、目で物体を正確に凝視できなくさせているかどうかを自動的に検出することによって、改善され得る。ここで、例えば、非利き目に関連する目追跡データは、破棄されてもよいし、又は、利き目に関連する目追跡データよりも、弱く重み付けされてもよい。
各精度スコアは、少なくとも1つの画像の画像データに基づいて決定される。ここで、左目の画像及び右目の画像は、別個に捕捉されて処理されてもよく、例えば、左目及び右目の画像は、2つの分離されたカメラ又はイメージセンサによって捕捉されてもよい。一方で、左目及び右目の1つの共有画像を捕捉することも可能である。この場合、1つの共有画像は、左精度スコアを決定するための左目に関連する画像データの導出のために処理され、さらに右精度スコアを決定するための右目に関連する画像データの導出のために処理される。一以上の単一の画像、特に左及び右精度スコアの決定には多くの画像(例えば何百もの画像)を捕捉することが望ましい。なぜなら、利き目の決定の結果の精度及び信頼性は、より重要性が高いためである。
各精度スコアの計算に係る精度関数は、所定の数式、アルゴリズム、ルックアップテーブル等であってよい。精度関数は、各目の画像データ又は画像データに基づいて計算された各目のデータを入力として有し、かつ各精度スコアを出力として与える。さらに、本発明に係る方法は、特に自動的に、キャリブレーション処置の間及び/又はキャリブレーション結果を検証する検証処置の間に、実行されてもよい。さらに、方法の少なくとも一部は、このような処置後、キャリブレーション処置及び/又は検証処置の結果を用いて、実行されてもよい。例えば、キャリブレーション処置及び/又は検証処置の間に計算される、左目の残差、右目の残差及び両眼の残差といった誤差が、各精度スコア及び計算用の関数及び/又はアルゴリズムとして機能してもよく、続いて、これらの誤差は、精度関数を構成してもよい。
本発明の有利な実施形態では、左精度スコア及び右精度スコアに依拠して、信号が特に利き目の識別を示す信号が、生成及び/又は出力される。この信号は、例えば、利き目についての情報を、診断目的のために、ユーザ又は別の人間に示すために、例えばスクリーン上に出力するように使用してもよい。また、信号は、両目に関連して捕捉されたデータ、又は、左目又は右目に関連して捕捉されたデータの何れが、目追跡に使用されるべきかを示すように、利用されてもよい。このように、有利には、利き目が存在するか否かの決定の結果は、診断装置の機能性、及び、目追跡装置の機能及び精度を向上させることができる。
さらに、少なくとも1つの画像に基づいて、かつ所定の精度関数に従って、左目及び右目の両眼精度スコアが決定されてもよい。左精度スコア、右精度スコア及び両眼精度スコアに依拠して、ユーザの左目及び右目の何れかが利き目であるか否かが、決定される。両眼精度スコアは、例えば、左目及び右目に関連する、両眼の視線又は両眼の注視点の精度スコアを規定するため、両眼精度スコアを考慮することによって、利き目が存在するか否かの決定をより確実に行うことができる。さらに、上述の信号は、左精度スコア、右精度スコア及び両眼精度スコアに依拠して、生成されて出力されてもよい。信号に基づいて、チャネル、すなわち、左チャネル、右チャネル又は両眼チャネルが、目追跡において選択されてもよい。特に、左チャネルが左目に関連する目のデータ(例えば左目の視線方向又は左目の注視点)を生成し、同様に、右チャネルが右目に関連する目のデータを生成し、さらに、両眼チャネルが、両目に関するデータ(例えば、両眼の視線方向又は両眼の注視点)を生成する。有利には、最も良い精度スコアに基づいて、これら3つのチャネルのうち、最も良いものが、目追跡用に選択されてもよい。このように、目追跡の精度及びロバスト性を最適化することができる。
概して、左の視線方向は、左目に関連する少なくとも1つの画像の画像データに基づいて、計算されてもよい。左の注視点は、左目の決定された視線ベクトルと所定の平面の交点として決定される。この平面は、例えばモニタ、特にリモートモニタのディスプレイ又はスクリーンであってもよいし、又は、ヘッドマウントディスプレイ装置のディスプレイ又はスクリーンであってもよい。3D対応デバイスの場合、又は、ディスプレイ装置とユーザの目との間にレンズ又は他の光学的システムが存在する場合、平面は、仮想画像の平面であってもよい。この平面の座標は、目追跡システムに既知であり、従って、視線ベクトルと平面の交点を注視点として計算することができる。同様のことが、右の視線方向及び右の注視点にも適用される。両眼の視線方向は、左目及び右目の視線方向の平均である。両眼の視線方向は、幾つかの方法で計算できる。例えば、両眼の注視点は、両眼の視線ベクトルと所定の平面の交点として計算されてもよいし、所定の平面上の右の注視点と左の注視点の中間としてもよいし、左の視線ベクトルと右の視線ベクトルの交点の(例えば、両眼の視線方向における)所定の平面への投影としてもよい。
さらに、左精度スコアは、左注視点セットからの左目の注視点のずれの尺度であり、右精度スコアは、右注視点セットからの右目の注視点のずれの尺度である。特に選択的に、両眼精度スコアは、両眼注視点セットからの左目及び右目の両眼の注視点のずれの尺度となる。つまり、言い換えれば、これらのずれを計算することができ、さらに左精度スコア、右精度スコア及び必要に応じて両眼精度スコアを、各ずれに依拠して、決定又は計算することができる。特に、他の影響するパラメータを、各精度スコアを決定するときも、考慮することができる。これらのずれを決定するために、キャリブレーション処置と同様の処置が実行されてもよい。従って、キャリブレーションポイント(「スティミュラスポイント」とも呼ばれる)は、注視点セットに対応するため、ディスプレイに表示させてもよい。さらに、左の注視点、右の注視点及び両眼の注視点、及び、これらそれぞれのずれ又は注視点セットへの差分が決定されてもよい。その後、これらのずれは、左目のための及び右目のための精度スコアと両目のための両眼精度スコアを計算するために使用されてもよい。注視点セットからの注視点のこれらのずれの他、さらに影響を与える変数(例えば、有効に追跡された注視点の数)が、各精度スコアを決定するときも、考慮されてもよい。これらの影響を与える変数又は他の変数に依拠した、各精度スコアの計算は、所定の精度関数によって規定されてもよい。各精度関数を決定するこの処置は、キャリブレーション処置及び/又は検証処置と同様であるため、有利には、キャリブレーション処置及び/又は検証処置に組込むことができる。これにより、特に時間効率が良くなり、計算資源及び計算時間が最小化される。
さらに、概して、左注視線セット、右注視線セット及び両眼注視線セットは、例えばディスプレイに表示させることができ、それらの位置は、異なっていても構わない。例えば、最初に、多数の左注視点セットをディスプレイに次々と表示させてもよく、各表示の注視点セットにおいて、対応するユーザの左の注視点(特にディスプレイ上のユーザの左の注視点の位置)を決定してもよく、さらに、そこから、各左の注視点の位置からの決定された左の注視点のずれを計算してもよい。その後、同様に、多数の右注視点セットを表示してもよく、ユーザの右の注視点及び各ずれが計算されてもよい。その後、同様に、多数の両眼注視点セットを次々と表示してもよく、各両眼注視点セットにおいてユーザの両眼の注視点及び各ずれが計算されてもよい。だが、この処置を短くするために、左目のための、右目のための及び両目のための別個のポイントセット又は異なるポイントセットの代わりに、共有のポイントセットが、左目のために、右目のために及び両目のために使用されることが好適である。つまり、例えば、左注視点セット、右注視点セット及び必要に応じて両眼注視線セットを同時に構成する1つのポイントセットが表示されてもよい。つまり、ユーザが単一のポイントセットを見ている間に、ユーザの右の注視点、ユーザの左の注視点及び必要に応じてユーザの両眼の注視点が決定され、図示のポイントセットからの左の注視点のずれが決定され、図示のポイントセットからの右の注視点のずれが決定され、必要に応じて図示のポイントセットからの両眼の注視点のずれが決定される。これは、多数のポイントセットが次々と表示される度に繰り返される。結果的に、左、右及び必要に応じて両眼の注視点及び各ずれを決定するために共通の注視点セットを使用すると、多くの時間を節約することができる。ここで、この時間節約の効果は、多くのポイントセットが表示されるほど有益であり、これにより、さらなる快適さが、ユーザのために達成され得る。
従って、本発明の好適かつ有利な実施形態では、左注視点セット、右注視線セット及び両眼注視点セットが同一であり、好適には、ユーザが凝視する必要がある目追跡システムのディスプレイ装置上に、有限の連続するポイント(すなわち、スティミュラスポイント)を表示することによって、及び/又は、ユーザが両目で追従する必要がある表示装置上に、スムース及び/又は継続的なポイント又は他のスティミュラス画像の動きを表示することによって、提供される。例えば、単一の注視点セットが、左注視線セット、右注視点セット及び両眼注視線セットとして、ディスプレイ又はスクリーンに表示されてもよい。その後、左の注視点、右の注視点及び両眼の注視点が、ユーザが表示された注視点を凝視している間に捕捉した少なくとも1つの画像によって、決定されてもよい。各精度スコアは、注視点セットからの決定された注視点の各ずれから、決定されてもよい。これは、時系列で表示される多くの注視点セットにおいて実行されてもよいし、又は、各精度スコアがより正確に決定され得るようスムースな動きで表示される多くの注視点セットにおいて実行されてもよい。
本発明の好適な実施形態によれば、ユーザの左目及び右目の何れかが利き目であるか否かの決定は、目追跡システムのキャリブレーション処置の間に実行されるか、及び/又は、キャリブレーション処置の結果を検証する検証処置の間に実行される。キャリブレーション処置は、通常、どのみち実行されるため、この処置の結果を、各精度スコア及び利き目を決定するために有利に利用することができる。加えて、検証処置の結果をも、この目的のために利用することができ、結果をより信頼性の高いものにする。例えば、まず、キャリブレーション処置が、一部のキャリブレーションポイントが注視点セットとしてディスプレイにタイムリーに表示されている間に、実行されてもよい。これらのポイントが表示されている間、目追跡システムは、ユーザの両目の幾つかの画像を捕捉し、表示のキャリブレーションポイントからのずれを最小化するようにして、決定された注視点をキャリブレーションされた注視点にマッピングするキャリブレーションマップのパラメータを定義する。その後、ユーザが見なければならないスクリーン又はディスプレイに第2注視点セットが表示されている間に、検証処置が実行されてもよい。さらに、これらのポイントが表示されている間、画像が捕捉される。捕捉されたさらなる画像に基づいて、さらにキャリブレーションマップに基づいて、キャリブレーション処置で決定されたパラメータと、再度の左目の注視点、右目の注視点及び両眼の注視点とが、第2ポイントセットと、各第2ポイントセットに関して計算され得る、左の注視点、右の注視点及び両眼の注視点の誤差とに関して、決定される。その後、これらの誤差は、すなわち、左目のための誤差、右目のための誤差及び両眼の誤差は、各精度スコアを決定するために使用されてもよい。
つまり概して、目追跡システムのキャリブレーション処置の間、ユーザの幾つかの第1注視点が、計算されて対応する第1注視点セットと比較される。ここで、この比較に基づいて、目追跡システムのキャリブレーションパラメータが、計算された第1注視点が対応するキャリブレーションされた第1注視点にマッピングされるようにして、設定される。これは、特に左目及び右目に関して実行される。すなわち、キャリブレーションマップは、左目のために及び右目のために別個に定義され、そのため、左目の特性と右目の特性の差分についての情報が失われない。
さらに、検証処置の間、ユーザの幾つかの第2注視点が、計算されて対応する第2注視点セットと比較される。検証処置によって、キャリブレーション処置の結果を検証することができる。言い換えれば、検証処置を実行することによって、キャリブレーショが成功したか否かを決定することができる。つまり、有利には、この検証処置は、2つの目的のために、使用されてもよい。すなわち、キャリブレーション処置の結果を検証するために、使用されてもよい。また、検証処置中の実行結果又は実行測定値は、各精度スコアを計算するために及び利き目を決定するために、使用されてもよい。
つまり好適には、第1注視点セットからのキャリブレーションされた第1注視点のずれに基づいて、左目、右目及び両目のキャリブレーション処置の誤差が計算され、及び/又は、第2注視点セットからの第2注視点のずれに基づいて、左目の、右目の及び両目の検証処置の誤差が計算される。有利には、検証処置の結果が、非常に高速なパフォーマンスを可能にするために、利き目の決定に使用され得るか、又は、検証処置の結果がはるかに高い精度及びロバスト性を可能にするために、使用され得るかの何れかのみである。
本発明のさらなる実施形態では、キャリブレーション処置の間、所定の基準に従い、外れ値を除くことによって、好適にはキャリブレーションポイントの全てのサブセットを評価することによって又はランダム化されたコンセンサスを見つけることによって、キャリブレーションポイントの最適サブセットが自動的に検出される。度々、表示されたポイントセットを見る必要があるユーザが、注意散漫になったり又は言い換えればポイントセットを見落としてしまったりすることがある。そのため、結果を改ざんしてしまう可能性がある外れ値を除くことは、非常に有利である。例えば、5つのポイントセットが表示される場合、3ポイントサブセット、4ポイントサブセット及び5ポイントサブセットの全てが、リスト化されてよく、さらにユーザの決定された各注視点に関して解析されてもよく、その後、最も良いサブセットが選ばれてもよい。同様のことを、可能な全てのサブセットを考慮する代わりに、サブセットのランダムなサンプルによって実行してもよく、これは、多くのポイントセットが表示される場合に有利である。
加えて、左の注視点、右の注視点及び両眼の注視点のそれぞれが、少なくとも1つの画像、及び/又は、左目、右目及び両目のそれぞれにおける、キャリブレーション処置の誤差、及び/又は、検証処置の誤差に基づいて、計算され得るか否かに依拠して、左精度スコア、右精度スコア及び両眼精度スコアが、それぞれ決定されてもよい。度々、左の注視点、右の注視点及び両眼の注視点を決定することが可能ではないことがある。なぜなら、例えば、片目又は両目が、捕捉された画像で検出され得ないためである。片目又は両面を検出できないことは、目追跡品質の尺度となる。例えば、5つの表示されたセットポイントにおいて、左の注視点が2回だけ決定することができ、一方で、右の注視点が5回決定することができた場合、右目の追跡品質は、左目の追跡品質よりも、はるかに良いと仮定され得る。つまり、好適には、キャリブレーションマップを定義するためのモデルのフィッティングにて使用される有効なキャリブレーションポイントの数に関する情報、又は、十分に追跡された検証ポイントの数に関する情報が、各精度スコアを計算するときに考慮されてもよい。既に述べたように、左目の、右目の及び両目のキャリブレーション処置及び/又は検証処置の上記の全ての誤差は、追跡品質の非常に良い尺度となる。従って、各精度スコアを計算するときと同様に、この情報を考慮することは非常に有利である。
本発明のさらなる実施形態では、目追跡が実行され、ここで、信号に依拠して、特に利き目を示す信号に依拠して、現在の注視点が計算される。つまり、目追跡の間、すなわち、キャリブレーション処置及び/又は検証処置が完了した後、ユーザの現在の注視点が繰り返し決定される。この現在の注視点は、利き目についての情報に依拠して、有利に決定されてもよい。例えば、左目が利き目であると信号が示す場合、ユーザの現在の注視点は、より良い結果を得るために左目を考慮したデータのみに基づいて、計算されてもよい。言い換えれば、現在の注視点は、例えば決定された左目の視線ベクトルのみを使用して、上述の左の注視点と同様に計算してもよい。両目が同等に利き目であると信号が示す場合、そのとき、現在の注視点は、左目及び右目を考慮した情報に基づいて、両眼の現在の注視点として計算されてもよい。従って、目追跡を、より正確かつロバストに実行することができ、これにより、目追跡によって制御される全てのアプリケーション(例えば、決定された注視点によってマウスを制御するために又はグラフィカルユーザインターフェース内の要素を起動するために又はユーザの焦点に対応する焦点を選択するため等に、目追跡システムが使用されるとき)をさらに向上させる。
つまり好適には、現在の注視点は、左目が利き目であると決定された場合、左目に関して計算される。現在の注視点は、右目が利き目であると決定された場合、右目に関して計算される。さらに、現在の注視点は、左目及び右目の何れもが利き目ではないと決定された場合、両目に関して計算される。
本発明のさらなる有利な実施形態では、現在の注視点は、左目のデータと右目のデータの加重平均として計算される。ここで、加重平均の重みは、決定された左精度スコア及び右精度スコアの関数である。そのため、右精度スコアが左精度スコアよりも高い場合、右目のデータが左目のデータよりも加重平均により大きく影響し、左精度スコアが右精度スコアよりも高い場合、左目のデータが右目のデータよりも加重平均により大きく影響する。加重平均として現在の注視点を計算すると、精度の最適化に関してより柔軟性を与え、より良い結果も得ることができる。特に、なぜなら、両眼の注視点は、左目のデータのみに基づいて又は右目のデータのみに基づいて注視点を計算するよりも、はるかにロバスト性があるためである。これにより、各目の精度に関する差分を考慮した上で、両目を考慮したデータが使用され得るようになる。
本発明は、ユーザの左目及び右目の何れかが利き目であるか否かを決定する、目追跡システムに関するものである。ここで、目追跡システムは、ユーザの左目及び右目の少なくとも1つの画像を捕捉し、少なくとも1つの画像に基づき、かつ所定の精度関数に従って、左目の左精度スコア及び右目の右精度スコアを決定し、及び、少なくとも左精度スコア及び右精度スコアに依拠して、ユーザの左目及び右目の何れかが利き目であるか否かを決定するように構成される。
本発明に係る目追跡システムの操作方法に関して記載される好適な実施形態及びそれらの利点は、本発明に係る目追跡システムに対応して適用される。特に、目追跡システムの操作方法を説明するステップ及び本発明に係るその実施形態は、本発明に係る目追跡システムのさらなる実施形態を構成する。例えば、目追跡システムは、少なくとも1つの画像を捕捉する、捕捉部、一以上のカメラ及び/又はイメージセンサと、処理部とを備えていてもよい。処理部は、捕捉された画像を処理し、所定の精度関数に従って各精度スコアを決定し、さらに、ユーザの左目及び右目の何れかが利き目であるか否かを決定する。さらに、目追跡システムは、注視線セットを表示する表示装置を備えていてもよい。さらに、目追跡装置は、目を照らす、一以上の光源を備えていてもよく、これは、目に反射を生じさせ、視線方向及び/又は注視点及び/又は各目の位置及び/又は各目の向きといった、目の特徴を決定するために使用される。
続いて、添付の図面を参照しつつ、本発明の有利な実施形態を詳細に説明する。
本発明の一実施形態に係る目追跡システムの操作方法の概略図である。 左目及び右目のそれぞれにおいて決定された注視点とともに、目追跡システムのディスプレイに表示された5つのキャリブレーションポイントの概略図である。 本発明の一実施形態に係る、左目及び右目のそれぞれにおいて決定された注視点とともに、検証処置の間に目追跡システムのディスプレイに表示された4つの検証ポイントの概略図である。 本発明の一実施形態に係る、左目及び右目のそれぞれにおいて決定された注視点とともに、検証処置の間に目追跡システムのディスプレイに表示された4つの検証ポイントの概略図である。 本発明の一実施形態に係る目追跡システムの操作方法の概略図であり、ここでは、各チャネルの精度スコアに依拠して、目追跡システムのチャネルが選択される。 本発明の一実施形態に係るユーザの利き目を決定するための目追跡システムの概略図である。
以下の好適な実施形態の説明では、左注視点セット、右注視点セット及び両眼注視点セットとの上記で使用した用語において、スティミュラスポイントとの用語が、同義語として使用される。さらに、これらのスティミュラスポイントが、キャリブレーション処置中に示されているか又は検証処置中に示されているかに依拠して、これらのスティミュラスポイントは、キャリブレーションポイント又は検証ポイントと呼ばれる。
図1は、本発明の一実施形態に係るユーザの利き目を決定する目追跡システム10(図5参照)の操作方法の概略図である。ステップS10で方法は開始し、ここでは、目追跡システム10のキャリブレーション処置を開始するための入力が受信される。この入力は、ユーザ入力であってもよいが、一般的な開始信号のような別のものであってもよい。この入力が受信されると、目追跡システム10は、キャリブレーション処置を開始する。このキャリブレーション処置は、ステップS12aでスタンダートキャリブレーションとして実行されてもよいし、又は、ステップS12bでスマートキャリブレーションとして必要に応じて実行されてもよい。ステップS12aのスタンダートキャリブレーション又はステップS12bのスマートキャリブレーションのどちらを実行するかは、ステップS10の入力信号によって指示されてもよい。
ユーザがスタンダートキャリブレーション処置を開始する場合、ステップS12aでは、スティミュラスポイントがスティミュラス平面上のn箇所の所定の静的位置に表示され、ユーザは、これらのポイントを見ることになる。スティミュラス平面は、スクリーンであってもよいし、又は、目追跡システムのディスプレイ装置の画像面であってもよい。ここで、目追跡システムは、リモート目追跡器として実装されてもよいし、又は、ヘッドマウントディスプレイを備えるヘッドマウント目追跡装置として実装されてもよい。このようにして、目追跡システムは、スティミュラス平面が、ディスプレイの物理的面と必ずしも一致しないが、3Dディスプレイ又は立体的なディスプレイによって生成される仮想の画像平面となり得るような、三次元画像を提供するように構成してもよい。このスティミュラス平面の位置及び向きは、目追跡システム10において既知である。
ユーザがこれらのスティミュラスポイントを見るとき、目追跡システムは、ユーザの両目の画像を捕捉し、これにより、例えば、各目の3D位置及び/又は各目の向き、及び、各目の視線ベクトルを計算することができる。ここで、左目の注視点は、左目の視線ベクトルとスティミュラス平面の交点として定義される。右目の注視点は、右目の視線ベクトルとスティミュラス平面の交点として定義される。また、両目の注視点は、両目の視線ベクトルとスティミュラス平面の交点として定義されてもよいし、又は、スティミュラス平面上の左目の注視点及び右目の注視点の位置平均として単に定義されてもよい。さらに、スティミュラスポイントは、それぞれ一度に示される。これらn個のスティミュラスポイントにおいて、グランドトルース(ground truth)注視点は、注視点セットとして表示されてもよい。グランドトルース注視点は、通常、2Dベクトルで表され、p i=1~nとして事前に既知である。目追跡ソフトウェアによれば、左の視線チャネルからn個の視線サンプルg i=1~nが取得され、右の視線チャネルからn個の視線サンプルg i=1~nが取得される。各視線サンプルgは、ithキャリブレーションポイントに関連する全ての目情報及び/又は視線情報を含む。
キャリブレーションは、視線補正モデルM:g→M(g)(これは、生の視線サンプルをキャリブレーションされたものにマッピングする)を生成しなければならない。特に、生成される視線補正モデルには、それぞれ、左目のモデルM及び右目のモデルMがある。理想的には、視線補正モデルは、このユーザ及び次の視線追跡からの全ての視線サンプルを補正することができる。
(事前に既知の)関数に、視線サンプルgから注視点P:g→p=P(g)を計算又は抽出させる。その後、左目の視線補正Mは、式(1)のように、キャリブレーションされた注視点p=P(M(g))とグランドトルースpとの差分を最小化するようにして調整される。
式(1)
thキャリブレーションポイントの左チャネルの残差は、式(2)によって計算される。
式(2)
キャリブレーションは、常に、2つの単眼チャネルにおいて別個に行われる。特に、同様のものが、同様の方法で右目にも適用される。式(1)及び式(2)は、右チャネルに適用される場合、指数「L」が「R」に置き換えられる。通常、両眼の視線チャネルの注視点は、式(3)のように、左チャネル及び右チャネルを平均することによって、与えられる。
式(3)
よって、両眼チャネルの残差は、式(4)によって計算され得る。
式(4)
静的なスティミュラスポイントの代わりに、継続的に動くスティミュラスポイントを示すことによって、キャリブレーションが実行されてもよい。動くポイントの経路は、経路モデルpによって完全に指定され、これは、キャリブレーションのグランドトルースの注視点である。左目の視線補正Mは、式(5)のように、動的時間伸縮法(Dynamic Time Warping)の実行によって、キャリブレーションされた注視点の経路とグラントツルース経路との差分を最小化するようにして調整される。
式(5)
ここで、Tは、マッチングのための最大時間ウインドウを制御する。
左チャネルの全体の残差は、式(6)のように、まさに上記で最小化したものである。
式(6)
改めて同様のものが、右チャネルに適用される。両眼チャネルの残差は、式(7)のように、同様の方法で、計算され得る。
式(7)

このように、ステップS12aのキャリブレーション処理の間に、左目の補正モデルMと右目の補正モデルMが計算され、同様に、左チャネルの誤差r、右チャネルの誤差r及び両目チャネルのrがそれぞれ計算される。キャリブレーション処理のこれらの結果は、その後、出力されてもよいし、目追跡システムによるさらなる利用のために(例えば、その後の目追跡のために及び/又はその後の検証処置のために)ステップS14に提供されてもよい。
これらの結果は、後述の自己検証方式で、ステップS22において利き目を決定するために使用されてもよい。
ステップS12aのキャリブレーション処置が完了した後、ユーザは、ステップS16において、検証処置を有効化する入力をすることができる。検証処置は、その後、ステップS14で得られるキャリブレーションの結果を使用して、ステップS18で実行される。ステップS16におけるユーザ入力の代わりに、任意の他の有効化信号が、検証処置を有効化するために提供されてもよい。検証処置は、キャリブレーション処理の完了後、自動的に開始されてもよく、ステップS16は排除されてもよい。
検証処置の間、スティミュラスポイントがスティミュラス平面に改めて表示されるが、好適には、キャリブレーションポイントの位置とは異なる位置である。
これらのスティミュラスポイントが表示されている間、ユーザの目の画像が目追跡システムによって捕捉され、視線ベクトルのような各目の特性が決定される。そのために、スティミュラスポイントの位置である、グランドトルース注視点p j=1~mのそれぞれにおいて、左目の生視線サンプルg j=1~m及び右目の生視線サンプルg j=1~mがもう一度得られる。このとき、各チャネルの検証誤差、すなわち、右チャネル用の誤差r、左チャネル用の誤差r及び両目チャネル用の誤差rが、式(9)、式(10)及び式(11)のように、キャルブレーションされた視線補正モデルM特にM及びMを適用することによって、計算される。
式(9)
式(10)
式(11)
単一のスティミュラス検証ポイントを示す代わりに、キャリブレーション処置に関して説明したように、継続的に動くような、検証スティミュラスポイントを示してもよい。
さらに、ステップS12aで説明したスタンダートキャリブレーションの代わりに、スマートキャリブレーションがステップS12bで実行されてもよい。この理由は、ユーザの注意散漫又は他の問題に起因して、キャリブレーション処置において検出された注視の全てが、キャリブレーション目的に適しているわけではないためである。従って、スマートキャリブレーションでは、「悪い」キャリブレーションポイントを検出して除去するために、スクリーニング処置が実行され得る。この機能は、より高いキャリブレーションロバスト性を提供するものであり、キャリブレーション品質に関連するものである。
スマートキャリブレーションは、最初に複数のキャリブレーションスティミュラスポイントが次々にスティミュラス平面に表示され、各スティミュラスポイントにおいて、左目の視線及び/又は注視点、右目の視線及び/又は注視点、及び/又は、両目の視線及び/又は注視点が決定されるという点では、スタンダートキャリブレーションに類似する。スタンダートキャリブレーションとの相違点は、スティミュラスポイント及び(視線及び決定される注視点のような)対応する目の特性の全てを、補正モデルMを算出するために使用する必要がないことである。
n個のキャリブレーションポイントセットを考慮すると、スマートキャリブレーションは次のようになる。
最初に、全ての可能で関係性のあるサブセットが列挙される。例えば、5つのポイントを有するとき、3ポイントサブセット、4ポイントサブセット及び5ポイントサブセットの全てが列挙され、次のステップで評価される。
次のステップでは、各キャリブレーションセットにおいて、3つの測定が検討される:キャリブレーションの数、キャリブレーションの品質(残差)、及び、変換及びスケーリングからの視線補正のずれ(偏差)である。より多くのポイントからなるサブセットの選択に基づく、事前知識も存在する。試験中のサブセットにおいて、キャリブレーションは、セットの中のポイントのみを使用して行われ、次に、キャリブレーションセット上の対応する残差が計算される。経験的に、悪いキャリブレーションポイントは、残差を最小化するために、大きな「視線補正」をよく必要とする。従って、変換及びスケーリングのみに適用したモデルからのずれが大きいということは、悪いキャリブレーションポイントであるというサインになる。これら3つの測定の全てを、加重和によってスコアに組み入れてもよい。次のステップでは、全てのサブセットにおいて、それらのスコアに基づき、最も良いものが選択される。全てのポイントからなるサブセットが他の全てのサブセットに勝る場合、キャリブレーションは、nポイントの全てで継続される。そうでない場合、最も良いサブセットからの視線補正モデルが使用される。選択されたサブセットに含まれないキャリブレーションポイントは、「悪い品質のため使用しない」としてラベル付けされる。
この提案されたアプローチは、例えば5ポイントのような、キャリブレーションポイントの小さなセットであっても信頼できるものである。例えば8ポイントより多い、キャリブレーションポイントの大きなセットを伴うキャリブレーションでは、より一般的なサンプルコンセンサスアプローチ(例えば、RANSAC(Random Sample Consensus))が、最も良いサブセットを検出するために使用されてもよい。
最終的に最も良いサブセットが決定されれば、ステップS12aのスタンダートキャリブレーション処置で説明したように、補正モデルM及び残差を、特に選出されたサブセットに関して、計算することができ、ステップS14に提供することができる。その後、スタンダートな検証処置がステップS18で実行される場合、スマートキャリブレーション処置の結果が、スタンダートキャリブレーションに関連して上述したのと同様に、使用される。
ステップS18のこの検証処置後、検証結果は、ステップS22でユーザの利き目を決定するために、ステップS20に提供される。特に、これらの検証結果は、式(9)、(10)及び(11)によって、又は、スムースな続行の場合のそれぞれの全体残差によって提供される残差である。さらに、各目に関する有効な追跡ポイントの数が、検証結果として提供されてもよい。
利き目の決定に関して、基本的な考えは、キャリブレーション及び/又は検証品質に基づく各視線チャネルの品質を評価することであり、最も良い(両目、左、右)チャネルが目追跡のために選択されてもよい。検証処置がステップS18で実行される場合、単眼検証誤差は、各単眼チャネルの最も自然な品質尺度となる。検証品質は、十分に追跡された検証ポイントの数についての情報を含んでいてもよい。つまり、式(9)、(10)及び(11)に従って計算された各チャネルの検証誤差に基づいて、かつ各チャネルの十分に追跡された検証ポイントの数をさらに考慮して、精度スコアが各チャネルにおいて決定されてもよい。この精度スコアが高いほど、各検証誤差が小さくなり、かつ十分に追跡された検証ポイントの数は多くなる。必要に応じて、「ボーナス」が、例えば所定の数値の形式で、両眼チャネルの精度スコアに加えられてもよい。なぜなら、両眼視線が、通常、単眼視線よりも、よりロバストであるということは、確かではないためである。加えて、十分に追跡された検証ポイントの数についての情報を、各精度スコアを計算するために使用するようにして、検証処置の有効視線サンプズの数が、左チャネルと右チャネルとの間で非常にアンバランスであるか否かを考慮してもよい。例えば、1つのチャネルが、他のチャネルと比較して、2倍以上の数の追跡ポイントを有するか否かをチェックしてもよい。検証において左チャネルが2つの追跡ポイントのみを取得し、かつ右チャネルが5つのポイントを取得した場合、システムは、より良いロバスト性のために、右チャネルを使用するように切り替わる。つまり、利き目を決定するために、システムは、対応する精度スコアに基づいて3つのチャネルの品質を比較し、最も良いものを選び出すことができる。検証品質が最も自然で信頼性の高い品質基準である一方で、一般的なルールは、最も良いチャネルを使用することである。
つまり、左チャネルが最も良いチャネルとして決定された場合、左目は、利き目として決定される。左チャネル及び右チャネルが同等又は類似の精度スコアを有するか、又は、両眼チャネルの精度スコアが最も良い場合、そのときは、両方の目が等しく利き目であると決定され、言い換えれば、利き目は存在しない。ステップS22のこられの結果に基づいて、ステップS24では、利き目を示す出力信号が生成されてもよい。その後、信号は、スクリーンに、この決定結果を出力するために使用されてもよいし、最も良いチャネルを使用したその後の目追跡のために使用されてもよい。
別の実施形態では、検証処置は、必ずしも実行される必要はない。必要に応じて、ステップS14のキャリブレーション結果は、自己検証の一種として、ステップS22の利き目を決定するために直接使用されてもよい。つまり、この自己検証によって、検証を追加することなく、視線チャネルを選択することができる。これにより、左及び/又は右及び/又は両眼の視線チャネル品質が、キャリブレーション品質に基づいて決定される。従って、キャリブレーション結果は、特に左目の式(2)に係る残差、右目の対応する残差、及び、式(4)に係る両眼の残差又は式(6)及び(7)に係るそれぞれの全体残差は、各チャネルのキャリブレーション品質を定義する対応する精度スコアを計算するために使用されてもよい。さらに、各精度スコアを計算するとき、有用なキャリブレーションポイントの数が考慮されてもよい。つまり、追加的に、2つのチャネルがそれぞれ異なる数の有用なキャリブレーションポイントを有するとき(この場合の理由は、スマートキャリブレーション、目追跡の損失等である)、より少ないキャリブレーションポイントを含むチャネルには、その残差がより小さいときであっても、そのキャリブレーションの信頼性が低いため、非常に低い品質又は精度スコアが与えられる。
まとめると、自己検証は、キャリブレーションセットで行われ、ここで、好適な手段は、キャリブレーション品質、すなわち、検証品質として残差手段を使用することである。別の選択肢は、「一個抜き交差検証(leave-one-out cross validation)」である。また、キャリブレーション品質は、一般的にキャリブレーションポイントが多いほど結果としての視線補正の精度が高くなるため、モデルフィッテイングに使用される有効なキャリブレーションポイントの数に関する情報を含んでもよい。上述の品質が影響するパラメータの全て又は一部を考慮する各チャネル用の精度スコアを提供するために、精度関数が提供されてもよく、この場合、これら全てのパラメータは、対応する重み付けによって加算されてもよい。つまり、各チャネル用に計算された精度スコアに基づいて、検証処置の結果に関して説明したのと同様に、利き目を決定してもよい。さらに、利き目を示す信号が、ステップS24において出力されてもよい。
図2は、キャリブレーション処置の間にスティミュラス平面に表示される5つのスティミュラスポイントの概略図を示す。5つのスティミュラスポイントは、キャリブレーションされた左目の注視点及び右目の注視点のそれぞれとともに、表示される。図2では、キャリブレーションポイント又はスティミュラスポイントは、i=1,2,3,4,5において、p G,Cとして表示される。さらに、i=1,2,3,4,5において、決定されかつキャリブレーションされた左目の注視点は、P(M(g L,C))で表示され、決定されかつキャリブレーションされた右目の注視点は、P(M(g R,C))で表示される。図2では、5つのスティミュラスポイントp G,Cが、説明目的で1つの画像に全て表示されているが、キャリブレーション処置の間に、これらのスティミュラスポイントp G,Cが、一度に、一つずつ表示されてもよい。また、キャリブレーションされた注視点P(M(g L,C)),P(M(g R,C))は、説明目的であり、キャリブレーションの間は表示されない。実際は、図2は、キャリブレーション処置の結果を、図示のスティミュラスポイントp G,C、及び、対応する決定され、かつキャリブレーションされた注視点P(M(g L,C)),P(M(g R,C))とともに見たものである。
以上から分かるように、各スティミュラスポイントp G,Cにおいて、左目の注視点P(M(g L,C))及び右目の注視点P(M(g R,C))が決定され得る。この場合、有効に追跡される左目の注視点P(M(g L,C))及び右目の注視点P(M(g R,C))の数は、それぞれ5つである。左チャネルの残差rは、x方向では0.5°と決定され得、y方向では0.7°と決定され得る。ここで、右目又は右チャネルの残差rは、x方向では0.1°と決定され得、y方向では0.5°と決定され得る。これらの結果は、利き目を決定する自己検証として直接使用してもよく、この場合、この例では、左チャネル及び右チャネルの精度がかなり近いため、利き目は検出されない。
必要に応じて、このキャリブレーション処置の後、検証処置が、キャリブレーション処置に基づき決定されたキャリブレーションモデルMを使用して実行されてもよい。検証処置の2つの例を、特にその結果を、図3a及び図3bに示す。
図3aには、i=1,2,3,4を用いてp G,V1で示される、4つの検証ポイントが示されている。これらは、キャリブレーションポイントp G,Cの位置とは異なる。さらに、検証処置の間に決定される、右目及び左目のそれぞれに関する各検証ポイントに関連する注視点も、示されている。左目の注視点は、i=1,2,3,4を用いてP(M(g L,V1))で示される。右目の注視点は、i=1,2,3,4を用いてP(M(g R,V1))で示される。この場合、左チャネルの平均残差rは、x方向で0.3°であり、y方向で0.6°である。また、右チャネルの平均残差rは、x方向で0.2°であり、y方向で0.3°である。この例では、これら左目の注視点P(M(g L,V1))及び右目の注視点P(M(g R,V1))は、同等の検証品質を有するため、両眼チャネルが、目追跡のために又は他の用途のために、選択される。これらの検証結果に基づいて、左目及び右目の何れもが利き目ではないと決定することができる。
これとは対照的に、図3bは、検証処置の異なる結果を伴う別の例を示す。改めて、i=1,2,3,4を用いてp G,V2で示される、4つの検証ポイントが示されている。これらは、キャリブレーションポイントp G,Cの位置とは改めて異なる。また、左目に関する注視点及び右目に関する注視点が示され、これらは、i=1,2,3,4を用いて、左目の注視点はP(M(g L,V2))で示され、右目の注視点はP(M(g R,V2))で示される。右チャネルの平均残差rは、x方向では0.7°であり、y方向では0.6°である。一方、左目では、有用なポイントを決定することができなかった。この場合、右目の検証品質の方が、左目の検証品質よりも、はるかに良いことが分かる。追跡は、より良い目による単眼追跡に切り替えてもよい。この場合、右チャネルを用いた、右目に切り替えられる。
従って、一般的に、特にそれぞれの誤差に基づいて、対応する精度スコアの計算によって与えられ得る、検証品質間の差分が上述の所定の閾値である場合、良い方のチャネルが、より良いロバスト性のために選択され得る。
図4は、本発明の別の実施形態に係る目追跡システムの操作方法の概略図を示す。ステップS30で、目追跡システムは、ユーザの両方の目の画像を捕捉する。これは、一以上のカメラを用いることによって、成され得る。捕捉された画像に基づいて、ステップS32aで左目に関連するデータが導出され、ステップS32bで右目に関連するデータが導出され、ステップ32cで両目に関するデータが導出される。これらのデータは、例えば、眼球の位置、瞳孔の位置、最終的に決定されたグリントの位置、視線方向及び/注視点といった、目の特性であってもよい。各チャネル(すなわち、左目、右目及び両目)のこれらのデータに基づいて、ステップS34aでは左目のための、ステップS34bでは右目のための、ステップS34cでは両目のための、精度スコアがそれぞれ計算される。この精度スコアは、各チャネルにおける追跡品質の尺度である。これらの精度スコアに基づいて、ステップS36では、左目又は右目の何れかが利き目であるか否かが決定される。例えば、左精度スコア及び右精度スコアが同等であるか又はそれらの差分が所定の閾値を下回る場合、左目及び右目の何れも利き目ではないと決定される。左精度スコアが右精度スコアよりも高い場合、場合によってはさらに、左精度スコアと右精度スコアの差分が所定の閾値を超える場合、特に両眼精度スコアが左及び右精度スコアよりも依然として高い場合を除き、左目が利き目であると決定される。同様のことが右目にも適用され、すなわち、右精度スコアが左精度スコアよりも高く、場合によってはさらに、左精度スコアと右精度スコアの差分が所定の閾値を超える場合、特に両眼精度スコアが左及び右精度スコアよりも依然として高い場合を除き、右目が利き目であると決定される。他の全ての場合、利き目は存在しないと決定される。
このように、例えば、ステップS36で左目が利き目であると決定されれば、ステップS38aで左目が利き目であることを示す信号が生成され、目追跡は、左チャネルを用いて実行される。そうでなく、右目が利き目であると決定された場合、ステップS38bで右目が利き目であることを示す信号が出力され、目追跡は、右チャネルを用いて実行される。ステップS36で利き目が存在しないと決定された場合、ステップS38cで利き目が存在しないことを示す信号が出力され、目追跡には、両目又はむしろ両眼チャネルが使用される。
代替的に、信号によって何れかの目が利き目であると決定される場合、目追跡において、両眼視線を使用することも可能であるが(なお、両眼視線は左目のデータ及び右目のデータに基づいて計算される)、その場合、利き目の目のデータには、より重い重み付けがされる。例えば、重み付けの比率は、精度スコアの比率であってもよいし、例えば、精度スコアの比率に対応するものであってもよい。
図5は、本発明の一実施形態に係る目追跡システム10の概略図を示す。目追跡システム10は、プロセッサ又は制御部12と、表示部14と、捕捉部16とを備える。必要に応じて、目追跡システム10は、照明部18を備えていてもよい。表示部14は、例えばコンピュータモニタのようなディスプレイを有するモニタであってよく、又は、目追跡システム10は、目追跡器を有するヘッドマウントディスプレイとして実装されてもよい。捕捉部16は、ユーザの目を撮影する、一以上のカメラを備えていてもよい。目追跡システム10のキャリブレーション処置及び/又は検証処置の間、キャリブレーションポイント及び/又は検証ポイントは、表示部14によって表示され得る。キャリブレーション及び/又は検証の間、さらに例えばその後の目追跡の間、捕捉部16は、ユーザの目の画像を捕捉する。これらの画像は、その後、処理部12によって処理され、所定の精度関数に従って、左目のための左精度スコア、右目のための右精度スコア、及び、必要に応じて両目のための両眼精度スコアが決定される。これらの精度スコアに基づいて、処理部12は、ユーザの左目及び右目の何れかが利き目であるか否かを決定する。この結果は、表示部14のディスプレイに出力されてもよいし、その後の目追跡に使用されてもよい。照明部18は、一以上の光源を含んでもよい。この光源は、例えば、グリント又は他のプルキン画像を生成する目的でユーザの目を照らすための、赤外線LEDである。これによって、目の位置及び向き並びに視線等のような目の特性を決定することが容易になる。
総括すると、ユーザの利き目を簡単に決定することができる、目追跡システムの操作方法及び目追跡システムが提供される。これらは、診断目的で、特に目追跡にて精度をより向上させるために、使用されてもよい。

Claims (14)

  1. ユーザの左目及び右目の何れかが利き目であるか否かを決定する目追跡システム(10)の操作方法であって、
    a)前記ユーザの前記左目及び前記右目の少なくとも1つの画像を捕捉する(S30)ステップと、
    b)前記少なくとも1つの画像に基づいて、かつ所定の精度関数に従って、前記左目のための左精度スコアを決定し(S34a)、右目のための右精度スコアを決定する(S34c)ステップと、
    c)少なくとも前記左精度スコア及び前記右精度スコアに依拠して、前記ユーザの前記左目及び前記右目の何れかが利き目であるか否かを決定する(S36)ステップと、
    d)前記少なくとも1つの画像に基づいて、前記左目の注視点(P(ML(giL,C)),P(ML(giL,V1)),P(ML(giL,V2)))及び前記右目の注視点(P(MR(giR,C)),P(MR(giR,V1)),P(MR(giR,V2)))を決定するステップと
    を含む目追跡システムの操作方法において、
    e)少なくとも1つの左の注視点セット(piG,C,piG,V1,piG,V2)からの前記左目の前記決定された注視点(P(ML(giL,C)),P(ML(giL,V1)),P(ML(giL,V2)))のずれに依拠して前記左精度スコアを決定し、さらに少なくとも1つの右の注視点セット(piG,C,piG,V1,piG,V2)からの前記右目の前記決定された注視点(P(MR(giR,C)),P(MR(giR,V1)),P(MR(giR,V2)))のずれに依拠して前記右精度スコアを決定するステップを含み、
    前記ステップb)において、前記少なくとも1つの画像に基づいて、かつ前記所定の精度関数に従って、前記左目及び前記右目のための両眼精度スコアが決定され(S34b)、前記ステップc)において、前記左精度スコア、前記右精度スコア及び前記両眼精度スコアに依拠して、前記ユーザの前記左目及び前記右目の何れかが利き目であるか否かが決定され(S36)、
    前記両眼精度スコアは、両眼注視点セット(piG,C,piG,V1,piG,V2)からの前記左目及び前記右目の両眼の注視点のずれの尺度である
    ことを特徴とする目追跡システムの操作方法。
  2. 請求項1に記載の目追跡システムの操作方法において、
    前記左注視点セット及び前記右注視点セット(piG,C,piG,V1,piG,V2)は、前記ユーザが凝視する必要がある前記目追跡システム(10)の表示装置(14)上に、有限の連続するポイントを表示することによって、及び/又は、前記ユーザが両目で追従する必要がある前記表示装置(14)上に、スムース及び/又は継続的なポイント又は他のスティミュラス画像の動きを表示することによって、提供されることを特徴とする目追跡システムの操作方法。
  3. 請求項1又は2に記載の目追跡システムの操作方法において、
    前記左注視点セット、前記右注視点セット及び前記両眼注視点セット(piG,C,piG,V1,piG,V2)は、同一であることを特徴とする目追跡システムの操作方法。
  4. 請求項1から3の何れか一項に記載の目追跡システムの操作方法において、
    前記左精度スコア、前記右精度スコア及び前記両眼精度スコアに依拠して、前記利き目の識別を示す信号が、生成され及び/又は出力される(S24;S38a,S38b,S38c)ことを特徴とする目追跡システムの操作方法。
  5. 請求項1から4の何れか一項に記載の目追跡システムの操作方法において、
    前記ユーザの前記左目及び前記右目の何れかが利き目であるか否かの前記決定は、前記目追跡システム(10)のキャリブレーション処置(S12a,S12b)の間及び/又は前記キャリブレーション処置の結果を検証するための検証処置(S18)の間に実行されることを特徴とする目追跡システムの操作方法。
  6. 請求項5に記載の目追跡システムの操作方法において、
    前記目追跡システム(10)のキャリブレーション処置(S12a,S12b)の間、前記ユーザの幾つかの第1注視点が計算され、かつ対応する第1注視点セット(piG,C)と比較され、ここで、当該比較に基づき、前記計算された第1注視点が対応するキャリブレーションされた第1注視点(P(ML(giL,C)),P(MR(giR,C)))にマッピングされるようにして、前記目追跡システムのキャリブレーションパラメータが設定されることを特徴とする目追跡システムの操作方法。
  7. 請求項に記載の目追跡システムの操作方法において、
    前記検証処置の間(S18)、前記ユーザの幾つかの第2注視点(P(ML(giL,V1)),P(ML(giL,V2)),P(MR(giR,V1)),P(MR(giR,V2)))が、計算され、かつ対応する第2注視点セット(piG,V1,piG,V2)と比較されることを特徴とする目追跡システムの操作方法。
  8. 請求項に記載の目追跡システムの操作方法において、
    前記第1注視点セットからの前記キャリブレーションされた第1注視点(P(ML(giL,C),P(MR(giR,C))の前記ずれに基づいて、前記左目、前記右目及び前記両目の前記キャリブレーション処置の誤差(rL,rR,rB)が計算され、及び/又は、前記第2注視点セット(piG,V1,piG,V2)からの前記第2注視点(P(ML(giL,V1)),P(ML(giL,V2)),P(MR(giR,V1)),P(MR(giR,V2)))の前記ずれに基づいて、前記左目、前記右目及び前記両目の前記検証処置の誤差(rL,rR,rB)が計算されることを特徴とする目追跡システムの操作方法。
  9. 請求項5から8の何れか一項に記載の目追跡システムの操作方法において、
    前記キャリブレーション処置(S12b)の間、所定の基準に従い、外れ値を除くことによって、好適にはキャリブレーションポイントの全てのサブセットを評価することによって又はランダム化されたコンセンサスを見つけることによって、キャリブレーションポイントの最適サブセットが自動的に検出されることを特徴とする目追跡システムの操作方法。
  10. 請求項8に記載の目追跡システムの操作方法において、
    前記左精度スコア、前記右精度スコア及び前記両眼精度スコアは、それぞれ、
    ・前記左の注視点(P(ML(giL,C),P(ML(giL,V1),P(ML(giL,V2))、前記右の注視点(P(MR(giR,C),P(MR(giR,V1),P(MR(giR,V2))及び前記両眼の注視点が、それぞれ、前記少なくとも1つの画像に基づいて計算され得るか否か、及び/又は、
    ・前記キャリブレーション処置(S12a,S12b)、及び/又は、前記左目、前記右目及び前記両目のそれぞれの前記検証処置(S18)の前記誤差(rL,rR,rB)、
    に依拠して決定されることを特徴とする目追跡システムの操作方法。
  11. 請求項4から10の何れか一項に記載の目追跡システムの操作方法において、
    目追跡が実行され、ここで、前記信号に依拠して、現在の注視点が計算されることを特徴とする目追跡システムの操作方法。
  12. 請求項11に記載の目追跡システムの操作方法において、
    前記現在の注視点は、前記左目が利き目であると決定された場合、前記左目に関連して計算され、前記現在の注視点は、前記右目が利き目であると決定された場合、前記右目に関連して計算され、前記現在の注視点は、前記左目及び前記右目の何れもが利き目ではないと決定された場合、両目に関連して計算されることを特徴とする目追跡システムの操作方法。
  13. 請求項11又は12の何れか一項に記載の目追跡システムの操作方法において、
    前記現在の注視点は、前記左目のデータと前記右目のデータとの間の加重平均として計算され、ここで、前記加重平均の重みは、前記決定された左精度スコア及び右精度スコアの関数であり、そのため、前記右精度スコアが前記左精度スコアよりも高い場合、前記右目のデータが前記左目のデータよりも前記加重平均により大きく影響し、前記左精度スコアが前記右精度スコアよりも高い場合、前記左目のデータが前記右目のデータよりも前記加重平均により大きく影響することを特徴とする目追跡システムの操作方法。
  14. ユーザの左目及び右目の何れかが利き目であるか否かを決定するための目追跡システム(10)であって、
    a)前記ユーザの前記左目及び前記右目の少なくとも1つの画像を捕捉し、
    b)前記少なくとも1つの画像に基づき、かつ所定の精度関数に従って、前記左目の左精度スコア及び前記右目の右精度スコアを決定し、
    c)少なくとも前記左精度スコア及び前記右精度スコアに依拠して、前記ユーザの前記左目及び前記右目の何れかが利き目であるか否かを決定し、及び、
    d)前記少なくとも1つの画像に基づいて、前記左目の注視点(P(ML(giL,C)),P(ML(giL,V1)),P(ML(giL,V2)))及び前記右目の注視点(P(MR(giR,C)),P(MR(giR,V1)),P(MR(giR,V2)))を決定する
    ように構成される前記目追跡システムにおいて、
    前記目追跡システムは、
    e)少なくとも1つの左の注視点セット(piG,C,piG,V1,piG,V2)からの前記左目の前記決定された注視点(P(ML(giL,C)),P(ML(giL,V1)),P(ML(giL,V2)))のずれに依拠して前記左精度スコアを決定し、さらに少なくとも1つの右の注視点セット(piG,C,piG,V1,piG,V2)からの前記右目の前記決定された注視点(P(MR(giR,C)),P(MR(giR,V1)),P(MR(giR,V2)))のずれに依拠して前記右精度スコアを決定し、
    f)前記少なくとも1つの画像に基づいて、かつ前記所定の精度関数に従って、前記左目及び前記右目のための両眼精度スコアを決定し(S34b)、さらに、前記左精度スコア、前記右精度スコア及び前記両眼精度スコアに依拠して、前記ユーザの前記左目及び前記右目の何れかが利き目であるか否かを決定し(S36)、ここで、前記両眼精度スコアは、両眼注視点セット(piG,C,piG,V1,piG,V2)からの前記左目及び前記右目の両眼の注視点のずれの尺度である
    ように構成されることを特徴とする目追跡システム。
JP2017525855A 2014-11-14 2015-10-07 目追跡システム及び利き目を検出する方法 Active JP6340503B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14193277 2014-11-14
EP14193277.2 2014-11-14
PCT/EP2015/073185 WO2016074861A1 (en) 2014-11-14 2015-10-07 Eye tracking system and method to detect the dominant eye

Publications (2)

Publication Number Publication Date
JP2018505458A JP2018505458A (ja) 2018-02-22
JP6340503B2 true JP6340503B2 (ja) 2018-06-13

Family

ID=51903838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017525855A Active JP6340503B2 (ja) 2014-11-14 2015-10-07 目追跡システム及び利き目を検出する方法

Country Status (5)

Country Link
US (2) US10016131B2 (ja)
EP (1) EP3217858B1 (ja)
JP (1) JP6340503B2 (ja)
CN (1) CN107771051B (ja)
WO (1) WO2016074861A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203370B (zh) * 2016-07-19 2019-07-09 成都通甲优博科技有限责任公司 一种基于计算机视觉技术的视力测定系统
JP6776970B2 (ja) * 2017-03-24 2020-10-28 株式会社Jvcケンウッド 視線検出装置、視線検出方法及び視線検出プログラム
EP3681371B1 (en) * 2017-09-11 2022-11-30 Tobii AB Reliability of gaze tracking data for left and right eye
US9940518B1 (en) 2017-09-11 2018-04-10 Tobii Ab Reliability of gaze tracking data for left and right eye
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
WO2019154510A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11138429B2 (en) * 2018-03-12 2021-10-05 Tobii Ab Iris recognition using eye-tracking system
US10534982B2 (en) * 2018-03-30 2020-01-14 Tobii Ab Neural network training for three dimensional (3D) gaze prediction with calibration parameters
CN108829239A (zh) * 2018-05-07 2018-11-16 北京七鑫易维信息技术有限公司 终端的控制方法、装置及终端
US10528131B2 (en) * 2018-05-16 2020-01-07 Tobii Ab Method to reliably detect correlations between gaze and stimuli
CN108600742B (zh) * 2018-05-17 2020-03-20 苏州科技大学 一种基于立体显示的中央眼测试系统及方法
TWI704501B (zh) * 2018-08-09 2020-09-11 宏碁股份有限公司 可由頭部操控的電子裝置與其操作方法
JPWO2020059357A1 (ja) * 2018-09-20 2021-08-30 富士フイルム株式会社 表示装置、表示制御方法、及び表示制御プログラム
EP3656285B1 (en) * 2018-11-15 2023-04-19 Tobii AB Method and device for calibrating an eye tracker
US10996751B2 (en) * 2018-12-21 2021-05-04 Tobii Ab Training of a gaze tracking model
WO2020147948A1 (en) 2019-01-16 2020-07-23 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN110399930B (zh) * 2019-07-29 2021-09-03 北京七鑫易维信息技术有限公司 一种数据处理方法及系统
KR20190106939A (ko) * 2019-08-30 2019-09-18 엘지전자 주식회사 증강현실기기 및 이의 제스쳐 인식 캘리브레이션 방법
KR102165807B1 (ko) * 2019-09-04 2020-10-14 주식회사 브이터치 우세안을 결정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN113253829B (zh) * 2020-02-10 2022-05-06 Oppo广东移动通信有限公司 眼球跟踪校准方法及相关产品
WO2021242008A1 (en) * 2020-05-28 2021-12-02 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
CN111973142B (zh) * 2020-07-23 2023-12-08 优奈柯恩(北京)科技有限公司 一种双眼视野差异的判断和调校系统及方法
CN112426121A (zh) * 2020-11-27 2021-03-02 成都怡康科技有限公司 一种用于色盲检测的可穿戴设备
SE2151198A1 (en) * 2021-09-30 2023-03-31 Tobii Ab Gaze defect compensation
US11928452B2 (en) * 2022-02-03 2024-03-12 Red Hat, Inc. Reducing the size of image files usable for deploying software in computing environments

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749036B2 (ja) * 1991-02-28 1995-05-31 株式会社エイ・ティ・アール視聴覚機構研究所 両眼眼球運動測定装置
JP2000010722A (ja) * 1998-06-18 2000-01-14 Mr System Kenkyusho:Kk 視線ユーザ・インタフェース装置、そのインタフェース方法、コンピュータ装置、その制御方法、およびプログラム記憶媒体
US8454166B2 (en) * 2006-12-04 2013-06-04 Atheer, Inc. Methods and systems for amblyopia therapy using modified digital content
US8317325B2 (en) * 2008-10-31 2012-11-27 Cross Match Technologies, Inc. Apparatus and method for two eye imaging for iris identification
WO2012021967A1 (en) * 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
FR2972339B1 (fr) * 2011-03-11 2013-04-19 Essilor Int Procede de determination de l'oeil directeur
FR2972911B1 (fr) * 2011-03-25 2013-04-05 Essilor Int Dispositif et procede de determination de l'oeil directeur d'un patient
JP5765015B2 (ja) * 2011-03-30 2015-08-19 富士通株式会社 視線検出装置、視線検出方法および視線検出プログラム
EP2774380B1 (en) * 2011-11-02 2019-05-22 Intuitive Surgical Operations, Inc. Method and system for stereo gaze tracking
US8845099B2 (en) * 2012-09-26 2014-09-30 Jason Clopton System and method for real time monitoring and dynamic treatment of oculomotor conditions
US9483855B2 (en) * 2013-01-15 2016-11-01 Flipboard, Inc. Overlaying text in images for display to a user of a digital magazine
FR3003460B1 (fr) * 2013-03-21 2015-03-27 Essilor Int Equipement pour la determination de l'œil directeur
GB201305726D0 (en) * 2013-03-28 2013-05-15 Eye Tracking Analysts Ltd A method for calibration free eye tracking
GB201310368D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems

Also Published As

Publication number Publication date
WO2016074861A1 (en) 2016-05-19
US10016131B2 (en) 2018-07-10
CN107771051B (zh) 2019-02-05
JP2018505458A (ja) 2018-02-22
EP3217858A1 (en) 2017-09-20
US10893801B2 (en) 2021-01-19
US20170340205A1 (en) 2017-11-30
EP3217858B1 (en) 2020-04-01
CN107771051A (zh) 2018-03-06
US20190133440A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
JP6340503B2 (ja) 目追跡システム及び利き目を検出する方法
JP6902075B2 (ja) 構造化光を用いた視線追跡
KR102000865B1 (ko) 눈 추적 디바이스 및 눈 추적 디바이스를 동작시키기 위한 방법
US11238340B1 (en) Predictive eyetracking using recurrent neural networks
CN109472189B (zh) 瞳孔半径补偿
JP5689850B2 (ja) 映像解析装置、映像解析方法、および注視点表示システム
WO2015190204A1 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
CN113808160B (zh) 视线方向追踪方法和装置
EP3905943B1 (en) System and method for eye tracking
WO2014131860A1 (en) Systems and methods for improved ease and accuracy of gaze tracking
CN112689470B (zh) 用于使用计算装置执行散光力测试的方法以及相应的计算装置
CN111699432B (zh) 使用沉浸式系统确定眼睛的屈光力的方法及其电子设备
JP6324119B2 (ja) 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
Dunn Required accuracy of gaze tracking for varifocal displays
CN113993441A (zh) 用于交互式测量眼屈光不正、阅读镜加光度和度数的计算机实现方法和系统
EP3498149B1 (en) Optoelectronic binocular instrument for the correction of presbyopia and method for the binocular correction of presbyopia
KR101374295B1 (ko) 안과용 장치
KR20100104330A (ko) 3차원 아드볼 패러다임을 이용하여 객관적으로 3차원 디스플레이 유발 피로감을 측정할 수 있는 방법 및 장치
Fischer et al. The influence of eye model parameter variations on simulated eye-tracking outcomes
EP4434439A1 (en) An eye tracking system and methods of using an eye tracking system
JP6007543B2 (ja) 変位測定装置、変位測定方法、及びプログラム
EP4171350B1 (en) Method and device for determining at least one astigmatic effect of at least one eye
RU2739519C1 (ru) Устройство для демонстрации изображений в определенном диапазоне пространства, отстоящем от линии взора наблюдателя на заданный угол, и фиксации реакции на это изображение
US10098532B2 (en) Systems, methods and apparatus for tracking changes in an ocular scene
CN116392066A (zh) 一种自助式立体视觉检测系统及其检测方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6340503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250