JP5858433B2 - 注視点検出方法及び注視点検出装置 - Google Patents

注視点検出方法及び注視点検出装置 Download PDF

Info

Publication number
JP5858433B2
JP5858433B2 JP2012547890A JP2012547890A JP5858433B2 JP 5858433 B2 JP5858433 B2 JP 5858433B2 JP 2012547890 A JP2012547890 A JP 2012547890A JP 2012547890 A JP2012547890 A JP 2012547890A JP 5858433 B2 JP5858433 B2 JP 5858433B2
Authority
JP
Japan
Prior art keywords
cameras
vector
subject
point
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012547890A
Other languages
English (en)
Other versions
JPWO2012077713A1 (ja
Inventor
嘉伸 海老澤
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2012547890A priority Critical patent/JP5858433B2/ja
Publication of JPWO2012077713A1 publication Critical patent/JPWO2012077713A1/ja
Application granted granted Critical
Publication of JP5858433B2 publication Critical patent/JP5858433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、対象者の画像に基づいて所定平面上の対象者の注視点を検出する注視点検出方法及び注視点検出装置に関するものである。
従来から、非接触で被験者の視線もしくは注視点を検出する装置が、ヒューマンインタラクションの分野で重要視されている。高精度の視線検出技術が実用化されれば、例えば、ドライバーの監視、商品の興味の度合いの調査、重度身体障害者のパーソナルコンピュータへのデータ入力などの様々な用途に適用できる。
下記特許文献1,2に開示された視線検出方法では、位置が既知であるカメラと、位置が既知であるディスプレイ画面上の1点との合計2点を被験者に注視させることによって、瞳孔の中心と角膜反射点との間の距離|r|から被験者の視線方向を計算するための関数を補正して、その補正した関数を用いて視線方向を検出する。このような視線検出方法によれば、被験者の頭部が移動しても高精度の視線検出が可能である。また、下記特許文献3に開示された視線検出方法は、2台のカメラを用いて両眼の視線を同時に検出するための方法である。この方法においても、視線検出結果を較正するために被験者にカメラを見させる必要がある。
このように視線計算時の補正のために被験者にカメラを見させなければならない理由は、カメラを見ているときには、眼球の光軸周りの対称性により理想的には光源の角膜反射像が瞳孔の中央に位置するものではあるが、実際には角膜反射像は瞳孔の中央からずれているからである。そのため、距離|r|から関数を用いて被験者の視線方向を計算する方式においては、いわゆる原点補正をしなければ関数に含まれるゲイン値を正確に求めることができない。そこで、上述した従来技術では、被験者にカメラの位置を含む規定点を見させることによって関数を補正している。
特開2005−185431号公報 特開2005−230049号公報 特開2005−198743号公報
しかしながら、被験者にカメラを見させるということはカメラの開口部の中心部(レンズの中心)を見させることになり、見るべき対象が明確でないため視点が定まりにくい。これに対して、レンズの中心に明確な目標物(マーカー)を取り付ければ視点が定まりやすくなるが、カメラ画像に障害物として写ってしまい正確な視線検出が難しくなる。また、設置場所の確保の関係でカメラを被験者の正面よりも下方に設置した場合、カメラを見させた際に近見反射などにより瞳孔が小さくなることがあり、しかもその上に角膜反射が重畳するため、カメラ画像から瞳孔位置を正確に検出することが難しくなる場合がある。そして、カメラを見させているときに計算される距離|r|の誤差は較正によって求められるゲイン値に強く影響し、ディスプレイ画面全体において視点または視線検出結果に大きな誤差となって現れる。
また、一般には、位置が既知の多くの指標を画面上に順に提示して被験者にその指標を見させるようにすることによって、視線検出の較正精度はある程度向上することが予想される。しかし、このような較正処理にはどうしても時間がかかるし、時間がかかればその分被験者の負担が増加し、その結果、被験者の集中力が低下して較正精度が低下してしまう。上記特許文献3に記載された視線検出方法でも、ディスプレイ上の座標が既知の2点もしくは移動する点(各時刻での一が既知の点)を追跡する較正が実現されている。しかし、この較正法においても、被験者はある特定の指標を2点以上見なければならなかった。しかも、これによって求められるカメラの開口部の中心部を見たときに相当する瞳孔中心と角膜反射との相対位置には誤差が生じやすい。これにより、較正によって求めるゲイン値も正確に求めることができなくなるため、ディスプレイ画面上の注視点誤差は、規則的ではあるが、注視位置によって誤差量が変化することになり、その誤差の補正も困難となっていた。
そこで、本発明は、かかる課題に鑑みて為されたものであり、被験者に対する負担を低減しつつ高速かつ高精度の注視点検出を実現できる注視点検出方法及び注視点検出装置を提供することを目的とする。
上記課題を解決するため、本発明の一側面にかかる注視点検出方法は、N台(Nは2以上の自然数)のカメラ及び複数の光源を用いて、対象者の顔画像を生成する顔画像生成ステップと、N台のカメラによるそれぞれの顔画像に基づいて、光源からの光の対象者の角膜上の反射点である角膜反射点から瞳孔中心までの実距離を表すベクトルrを計算するベクトル計算ステップと、N台のカメラに対応するそれぞれのベクトルrを基に、N台のカメラと瞳孔中心とを結ぶ基準線それぞれに対する対象者の視線の角度θを、関数fを用いて、少なくともベクトルrのオフセットベクトルであるベクトルrを含むM個の未定定数(Mは3以上の自然数)を含む下記式(1);
θ=f(|r−r|) …(1)
によって計算する視線方向計算ステップと、N台のカメラに対応して計算された角度θを少なくとも基にして導かれた複数の関係式を用いて、関数fに含まれるM個の未定定数を決定する未定定数決定ステップと、未定定数決定ステップによって決定されたM個の未定定数を用いて視線方向計算ステップによって計算された視線の方向に基づき、対象者の注視点を検出する注視点検出ステップと、を備え、カメラの台数Nは、M×1/2個以上に設定されている、ことを特徴とする。
或いは、本発明の一側面にかかる注視点検出装置は、対象者の顔画像に基づいて、該対象者の注視点を検出する注視点検出装置であって、対象者の顔画像を取得するN台のカメラと、複数の光源と、カメラ及び光源を制御する制御回路と、N台のカメラから出力された画像信号を処理する画像処理部とを備え、画像処理部は、N台のカメラによるそれぞれの顔画像に基づいて、光源からの光の対象者の角膜上の反射点である角膜反射点から瞳孔中心までの実距離を表すベクトルrを計算し、N台のカメラに対応するそれぞれのベクトルrを基に、N台のカメラと瞳孔中心とを結ぶ基準線それぞれに対する対象者の視線の角度θを、関数fを用いて、少なくともベクトルrのオフセットベクトルであるベクトルrを含むM個の未定定数(Mは3以上の自然数)を含む下記式(1);
θ=f(|r−r|) …(1)
によって計算し、N台のカメラに対応して計算された角度θを少なくとも基にして導かれた複数の関係式を用いて、関数fに含まれるM個の未定定数を決定し、当該決定されたM個の未定定数を用いて上記式(1)によって計算された視線の方向に基づき、対象者の注視点を検出し、カメラの台数Nは、M×1/2個以上に設定されている、ことを特徴とする。
このような注視点検出方法或いは注視点検出装置によれば、N台のカメラ及び複数の光源によって対象者の顔画像が生成され、それぞれの顔画像を基に対象者の角膜反射点から瞳孔中心までのベクトルrがN台のカメラごとに対応して計算され、それぞれのベクトルrをオフセットベクトルrを含むM個の未定定数を含む関数fに適用することによって、対象者の視線の基準線に対する角度θがN台のカメラごとに対応して計算される。さらに、このようにして計算されたそれぞれの角度θを基に複数の関係式が導かれ、カメラがM×1/2台以上に設定されていることにより、それらの関係式を用いて関数fに含まれるM個の未定定数が決定される。そして、決定された関数fを用いて対象者の顔画像から視線の方向及び注視点が検出される。これにより、対象者に複数の規定点を注視させることなく、また、対象者にカメラの開口部を注視させることもなく、視線方向を算出するための関数に関する自動補正が高精度に実行される。その結果、対象者の負担が軽減されるとともに、高速かつ高精度の注視点検出が可能になる。
本発明による注視点検出方法及び注視点検出装置によれば、被験者に対する負担を低減しつつ高速かつ高精度の注視点検出を実現できる。
本発明の好適な一実施形態にかかる注視点検出装置1を示す斜視図である。 図1のカメラの開口に取り付けられた光源の平面図である。 図1の注視点検出装置で設定される座標系の位置関係を示す図である。 図1の注視点検出装置による注視点検出手順を説明するための図である。 図1の注視点検出装置による注視点検出手順を説明するための図である。 (a),(b)は、カメラ画像上で観察されるベクトルrを示す図であり、(c)は、仮想視点平面上の注視点Tを示す図である。 図1のカメラで取得された画像上で観察されるベクトルrを示す図である。 図5に示す仮想視点球面S上に投影された点O,O,Gを平面上にさらに投影した図である。 図5に示す仮想視点球面S上に投影された点O,O,O,Gを平面上にさらに投影した図である。 図8に示した仮想視点球面Sの平面上への投影図上で角度θをベクトルとして示す図である。 図1のカメラのカメラ画像上で検出されたベクトルr,r’を示す図である。 対象者Aの左右の瞳孔とディスプレイ装置8の画面上の注視点Qとの位置関係を示す図である。
以下、図面を参照しつつ本発明に係る注視点検出方法及び注視点検出装置の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。
(注視点検出装置の構成)
まず、本発明にかかる注視点検出装置を実施するための注視点検出装置の構成について、図面を参照しながら説明する。本発明の注視点検出装置は、対象者の顔画像を基にパーソナルコンピュータ等の情報処理端末のモニター画面上の注視点を検出する装置である。
図1は、本発明の好適な一実施形態にかかる注視点検出装置1を示す斜視図である。同図に示すように、注視点検出装置1は、対象者Aの顔画像を撮像する4台のカメラ2a,2b,2c,2dと、それぞれのカメラ2a,2b,2c,2dの開口部の撮像レンズの外側に設けられた光源3a,3b,3c,3dと、光源3a,3b,3c,3dの給電用の発光回路(制御回路)4と、カメラ2a,2b,2c,2dに入力する同期信号を生成する同期信号発生器(制御回路)5と、同期信号を遅延させるための遅延回路(制御回路)6と、カメラ2a,2b,2c,2dの生成した画像信号を処理するパーソナルコンピュータ等の画像処理装置(画像処理部)7と、カメラ2a,2bの上方およびカメラ2c,2dの間において対象者Aに対向するように配置され、画像処理装置7に接続されたディスプレイ装置8とを備えている。これらの発光回路4、同期信号発生器5、及び遅延回路6は、カメラ2a,2b,2c,2d及び光源3a,3b,3c,3dの動作を制御するための制御回路を構成する。
カメラ2a,2b,2c,2dは、対象者Aの顔面を撮像することによって画像データを生成する。このカメラ2a,2b,2c,2dとしては、インターレーススキャン方式の1つであるNTSC方式のカメラを用いる。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと奇数フィールドを除く偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されて生成される。具体的には、1フレーム内では、奇数フィールドの画素ラインと偶数フィールドの画素ラインとが交互に並ぶように生成される。
これらのカメラ2a,2c,2dには、それぞれ、同期信号発生器5から遅延回路6を経由して遅延された垂直同期信号(VD信号)が入力されることにより、4つのカメラ2a,2b,2c,2dの撮影タイミングが互いにずらされる。
また、このカメラ2a,2b,2c,2dの対物レンズが収容された円形状の開口部9a,9b,9c,9dの外側には、それぞれ、光源3a,3b,3c,3dが固定されている。図2には、光源3a,3b,3c,3dの平面図を示している。光源3a,3b,3c,3dは、対象者Aの顔に向けて照明光を照射するためのものであり、リング状の台座部10に2種類の発光素子11,12が複数埋め込まれた構造を有している。この発光素子11は、出力光の中心波長が850nmの半導体発光素子(LED)であり、台座部10上において開口部9a,9b,9c,9dの縁に沿って等間隔でリング状に配設されている。また、発光素子12は、出力光の中心波長が950nmの半導体発光素子であり、台座部10上において発光素子11の外側に隣接して等間隔にリング状に配設されている。すなわち、発光素子12のカメラ2a,2b,2c,2dの光軸からの距離は、発光素子11の光軸からの距離よりも大きくなるように設定されている。このとき、それぞれの発光素子11,12は、カメラ2a,2b,2c,2dの光軸に沿って照明光を出射するように台座部10上に設けられている。なお、光源の配置は上記構成に限定されるものではなく、カメラをピンホールモデルとみなせるような配置であれば他の配置構成を採る事も可能である。
これらの発光素子11,12は、発光回路4によって、それぞれ独立に発光タイミングを制御可能にされる。具体的には、同期信号発生器5から出力されるVD信号に同期したカメラ2a,2b,2c,2dのシャッタタイミングに合わせて、発光素子11,12が交互に発光するように、発光タイミングが制御される。
このような制御回路の動作により、発光素子11から対象者Aの左右の眼球Bに照明光が照射されると、眼球Bにおいて明瞳孔像が生成され、発光素子12から眼球Bに照明光が照射されると、眼球Bにおいて暗瞳孔像が生成される。これは、波長が900nmより短い照明光を受ける場合は、波長が900nmより長い照明光を受ける場合に比較して瞳孔が明るく映る、眼球Bへの照明光がカメラの光軸からより離れた位置から入射した場合は瞳孔がより暗く映るという性質によるものである。ここで、4組の発光素子11及び4組の発光素子12は、それぞれ、カメラ2a,2b,2c,2dの奇数フィールド及び偶数フィールドの撮影タイミングに同期させるように、交互に点灯される。その結果、カメラ2a,2b,2c,2dの生成する奇数フィールド及び偶数フィールドには、それぞれ、眼球Bの明瞳孔画像及び暗瞳孔画像が反映される。
画像処理装置7は、4台のカメラ2a,2b,2c,2dから出力された画像データを処理する。具体的には、画像処理装置7は、カメラ2a,2b,2c,2dから出力された1フレームの画像データを、奇数フィールドと偶数フィールドとに分離する。例えば、この奇数フィールドの画像データ(奇数画像データ)は明瞳孔画像となっており、偶数フィールドの画像データ(偶数画像データ)は暗瞳孔画像となっている。これらの画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像処理装置7は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像データ及び暗瞳孔画像データを生成する。
さらに、画像処理装置7は、明瞳孔画像データ及び暗瞳孔画像データを用いて、対象者Aの左右の瞳孔の検出を繰り返し行う。すなわち、明瞳孔画像データと暗瞳孔画像データの差分画像を生成し、前回の瞳孔検出処理で検出された瞳孔の位置を基にウィンドウを設定し、そのウィンドウの範囲内で瞳孔の探索を行う。具体的には、画像処理装置7は、差分画像に対してPタイル法によって決定された閾値で2値化を行った後、孤立点除去及びラベリングを行い、ラベルづけされた画素の連結成分の中から、瞳孔らしい面積、サイズ、面積比、正方形度、及び瞳孔特徴量等の形状パラメータから瞳孔候補を選択する。さらに、選択された瞳孔候補の連結成分の中から、2つの瞳孔候補の関係が所定の関係にあるものを左右の瞳孔として決定し、画像データにおける左右の瞳孔の中心座標を算出する。
また、画像処理装置7は、明瞳孔画像データ及び暗瞳孔画像データを対象にして、対象者Aの左右の目における光源からの光の角膜上の反射点である角膜反射点の位置も検出する。すなわち、検出した瞳孔を中心としたウィンドウを設定し、そのウィンドウ範囲のみを高分解像度化した画像データを作成し、その画像データから角膜反射を検出する。具体的には、Pタイル法によって2値化の閾値を決定し、その画像から2値化画像を作成し、ラベリングを行い、面積が一定以下である部分を選択する。ここで、画像処理装置7は、選択した部分の中心座標に対し、分離度フィルタを与え、分離度と輝度とを掛けた特徴量を求め、その値が一定値以下であれば角膜反射ではないと判断する。さらに、画像処理装置7は、明瞳孔画像データと暗瞳孔画像データにおいて、角膜反射の移動量を計算し、その移動量を差分位置補正量とする。そして、画像処理装置7は、明瞳孔画像データ及び暗瞳孔画像データの角膜反射位置が一致するように差分位置補正量分だけずらし、画像データの輝度を足し算し、輝度重心座標を角膜反射の座標と決定する。
さらに、画像処理装置7は、2台のカメラ2a,2bから出力された画像データを元に検出した瞳孔中心座標から、対象者Aの左右の瞳孔の3次元位置を計算する。この際、画像処理装置7は、ステレオ法によって左右の瞳孔の3次元座標を計測する。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに画像中の点の座標を基に、内部パラメータ及び外部パラメータを用いてその点の空間上の位置を決定する方法である。
なお、画像処理装置7がステレオ法を用いて瞳孔の3次元座標を計算する際には、図3に示すような座標系を用いる。同図に示す世界座標系(X,Y,Z)は、2台のカメラ2a,2bで共有する原点Oが例えばディスプレイ装置8の画面中央に位置する座標系であり、カメラ座標系(X,Y,Z)は、その原点Cがカメラ2a,2bの光学中心とされ、Z軸が光学中心から画像面に垂直に引いた光軸と平行とされた座標系であり、画像座標系(X,Y)は、撮像素子が置かれる画像面に沿ってXY平面と平行にされ、光軸と画像面の交点(画像中心)を原点Ciとする座標系である。点Pが目標点の座標とすると、カメラ2a,2bを用いた際の画像座標系への投影点(X,Y)は、画像のゆがみにより理想的な投影点(X,Y)からずれることになる。従って、ステレオ法を用いた3次元位置計測を精度良く行うためには、目標点Pの世界座標とその画像座標の対応づけを記録したキャリブレーションデータを予め取得する必要がある。例えば、このようなキャリブレーションデータとしては、外部パラメータとしての世界座標に対するカメラ座標系の平行移動ベクトル及び世界座標系に対するカメラ座標系の回転行列や、内部パラメータとしての焦点距離、画像中心座標、スケール係数、レンズひずみ係数、撮像素子間隔等が予め取得されて、画像処理装置7に記憶される。
そして、画像処理装置7は、2台のカメラ2a,2bからの出力データを元に検出した画像座標系における瞳孔中心座標と、世界座標系における瞳孔中心座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、画像処理装置7は、2つの関係式から対象者Aの瞳孔の世界座標系における3次元位置座標を求める。同様にして、画像処理装置7は、対象者Aの左右の瞳孔の3次元位置を求めることができる。
また、画像処理装置7は、検出した対象者Aの左右のいずれかの角膜反射点の位置及び瞳孔中心の位置とを用いて、ディスプレイ装置8上の対象者の注視点Qを検出する。以下に、図4及び図5を参照しながら、画像処理装置7による注視点Qの検出手順について説明する。ここでは、説明を簡略化するためにカメラ2a,2bのカメラ画像のみを用いた注視点検出手順を述べる。
(注視点検出手順)
ここでは、図4に示すように、検出した瞳孔の3次元位置Pを元に、カメラ2a,2bの開口部9a,9bの中心を原点Oとし、その原点Oと瞳孔Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を設定する。ここで、X’軸は、世界座標系のX−Y平面と仮想視点平面X’−Y’との交線に相当する。
まず、画像処理装置7は、画像面Sにおける角膜反射点Gから瞳孔中心Pまでのベクトルrを算出する。そして、ベクトルrを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルrに変換する(ベクトル計算ステップ)。このとき、各カメラ2a,2bをピンホールモデルと考え、角膜反射点Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定している。つまり、画像処理装置7は、仮想視点平面と平行であって瞳孔Pの3次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標をベクトルrとして算出しており、このベクトルrは角膜反射点Gから瞳孔中心Pまでの実距離を表す。
その後、画像処理装置7は、対象者Aの仮想視点平面上の注視点Tに関して、直線OTの水平軸X’に対する傾きφを、ベクトルrの画像面上の水平軸Xに対する傾きφ’と等しいとして求める。さらに、画像処理装置7は、対象者Aの視線ベクトル、すなわち、瞳孔中心Pと注視点Tを結ぶベクトルPTと、基準線OPとの成す角θを、ゲイン値k及び原点補正ベクトル(オフセットベクトル)rを含むパラメータを使った関数fを用いて、下記式(3);
θ=f(r)=k×|r−r| …(3)
によって計算する(視線方向計算ステップ)。
このような角度φ,θの計算は、瞳孔中心Pの存在する平面上のベクトルrを仮想視点平面上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われている。より詳しくは、対象者Aの視線PTの基準線OPに対する角度θは、瞳孔中心と角膜反射の距離の修正値|r−r|との間で線形関係を有すると仮定している。なお、関数fに含まれる原点補正ベクトルrには、対象者Aがカメラを見たとき(θ=0)の実寸の角膜反射−瞳孔中心ベクトルrが零ではないためにそのベクトルrが設定される。ここで、上記ゲイン値k及び原点補正ベクトルrは、各対象者Aや左右の眼球によって異なるため較正を行う必要がある。そこで、ゲイン値k及び原点補正ベクトルrは予め設定された初期値に対して後述するパラメータ補正処理によって補正された値が使用される。
さらに、画像処理装置7は、2台のカメラ2a,2bのカメラ画像に対応して計算された角度φ,θであるφ,φ,θ,θを参照して、対象者Aのディスプレイ装置8の画面上の注視点を検出する(注視点検出ステップ)。ここで、注視点検出のメカニズムを説明するために図5に示すような座標系を定義する。2つのカメラ2b,2aの位置に対応した原点O’,O’を有する2つの仮想視点平面H,Hと、瞳孔中心Pを中心とした半径を任意とした仮想視点球面Sを定義する。2つの仮想視点平面H,Hは、それぞれ、直線PO’,PO’に対して垂直な平面である。そして、瞳孔中心Pとディスプレイ画面上の注視点Qを通る直線(視線)と仮想視点球面Sとの交点をG、瞳孔中心Pと原点O’を通る直線と仮想視点球面Sとの交点をO、瞳孔中心Pと原点O’を通る直線と仮想視点球面Sとの交点をOとする。なお、視線PQと仮想視点平面Hとの交点をGとすると、直線O’Gと仮想視点平面Hとの水平軸の成す角がφとなる。同様に、視線PQと仮想視点平面Hとの交点をGとすると、直線O’Gと仮想視点平面Hとの水平軸の成す角がφとなる。さらに、仮想視点球面S上において、点Oにおける点Oを通る水平面と球面Sとの交線(曲線)と曲線Oの成す角は、上記角度φと等しくなる。同様に、仮想視点球面S上において、点Oにおける点Oを通る水平面と球面Sとの交線(曲線)と曲線Oの成す角は、上記角度φと等しくなる。また、上述したように、点P,O,O’は同じ直線L上に存在し、点P,O,O’は同じ直線L上に存在するので、直線Lと視線の成す角がθとなり、直線Lと視線の成す角がθとなる。
画像処理装置7は、上記のような関係を用いることにより、予め既知である原点O’,O’の位置座標、及びディスプレイ装置8の位置及び向きのデータを参照しながら、画面上の注視点を算出することができる。すなわち、2台のカメラ2a,2bのカメラ画像によって計算された角度φ,φ,θ,θから、仮想視点球面S上の点G,O,Oの相対的位置関係を取得することができる。従って、画像処理装置7は、既知である原点O’,O’の座標と、既に計算された瞳孔中心Pの座標から、一意に視線PGを求めることができ、その視線PGとディスプレイ装置8の画面との交点を計算することにより注視点Qを検出することができる。なお、角度φ,θから求められる視線PGと、角度φ,θから求められる視線PGがずれている場合にはそれらを平均したものを最終的な視線ベクトルとして計算することもできる。
ここで、画像処理装置7が視線方向計算ステップで用いる関数fには、パラメータとしてゲイン値k及び原点補正ベクトルrが含まれている。このゲイン値kは、上記式(3)を見ても分かるように、角膜反射−瞳孔中心ベクトルrを調整後のベクトル(r−r)の大きさと視線方向を示す角度θが線形関係にあると仮定して、そのベクトルrから角度θを求める時に使用する倍率である。理想的には、角度θとベクトル|r|とが線形関係にあれば、ゲイン値kさえ求まれば角度θが計算できるはずである。言い換えれば角度θ=0のとき、つまり対象者Aがカメラを注視したときはベクトル|r|=0になるはずである。しかしながら、実際には眼球の視軸(視線)と光学軸とは一致せず、角度θ=0のときベクトル|r|≠0となる。さらに、対象者Aが変われば角度θ=0のときのベクトル|r|は異なる。
この現象を、図6及び図7を用いて説明する。図6(c)にはカメラの位置O’を含む仮想視点平面上の注視点Tを示しており、図6(a),(b)、及び図7(a),(b)は、カメラで取得された画像上で観察されるベクトルrを示している。仮想視点平面上で線分O’Tの長さは、|O’T|=|PO’|tanθで計算できる。対象者Aがカメラを見ているときは、理想的にはカメラに写る瞳孔中心Pと角膜反射Gの位置は一致する(図6(b))。一方で、注視点Tを見ているときは、角膜反射Gから瞳孔中心Pの位置がずれることになる(図6(a))。このとき、カメラ画像上の角度φ’と仮想視点平面上の角度φとはφ’=φが成立する。しかしながら、現実には、対象者Aがカメラを見ているときは、カメラ画像中の瞳孔中心Pと角膜反射点Gとは一致しない。例えば、図7(b)に示すように、角膜反射点Gが瞳孔中心Pに対して右下寄りになってしまう。これに対して、図7(a)に示すように、注視点Tを見ているときは、角膜反射Gから瞳孔中心Pの位置がさらにずれることになる。図7(a),(b)には、対象者Aがカメラを見ているときの瞳孔中心Pを原点とする座標系を点線で示している。この座標系において瞳孔中心Pの位置ベクトルr’を計算すれば、このr’に関しては、図6に示すような理想的な瞳孔中心Pと角膜反射Gとの関係が同様に成立すると考えられる。言い換えれば、対象者Aがカメラを見ているときの角膜反射Gを原点としたときの瞳孔中心Pの位置ベクトルrを求める。そして、この位置ベクトルrと、対象者Aが注視点Tを見たときのベクトルrとから、下記式(4);
r’=r−r …(4)
を用いてベクトルr’が求まる(図7(a))。さらに、求められたベクトルr’を対象にゲイン値kを適用すれば角度θを正しく求めることができ、さらにベクトルr’から角度φも求めることができる。このベクトルrが原点補正ベクトルである。
上述したパラメータk,rは、対象者Aによって異なるために予めパラメータ較正を行って求めておく必要がある。つまり、パラメータk,rは、装置起動後の初期の段階では未定定数であり、正確な視線検出のためには予めパラメータ較正によって適切な値に決定しておく必要がある。以下、画像処理装置7によって注視点検出処理の前に実行されるパラメータ補正の手順について説明する。
(パラメータ補正手順、未定定数決定ステップ)
図8は、図5に示す仮想視点球面S上に投影された点O,O,Gを平面上にさらに投影した図である。同図でベクトルとして示されたθ,θは、それぞれ視線の角度を示している。ここで、ベクトルr,rは対象者が仮想視点球面S上の点Gの方向を見たときのそれぞれのカメラ2a,2bで撮影した画像から算出した実寸の角膜反射−瞳孔中心ベクトルであり、対象者Aがカメラ方向の点O,O,O’,O’を見たときの角膜反射−瞳孔中心ベクトルをr=(x,y)とすると、ベクトルr,rの原点補正後のベクトルr’,r’は、下記式(5);
’=r−r
’=r−r …(5)
によって表される。さらに式(3)から、下記式(6);
θ=k|r−r
θ=k|r−r| …(6)
の関係も得られる。
ここで、画像処理装置7は、ディスプレイ装置8の画面上の座標が既知である1点の規定点を対象者Aに注視させると同時に、それに応じてベクトルr=(x,y)、及びベクトルr=(x,y)を検出する。視線の角度θ,θは規定点から計算でき、これをベクトルr,rとともに2つの関係式を含む上記式(6)に適用すれば、3つの未知パラメータk,x,yが2つの関係式に含まれることになる。従って、これらの未知パラメータを求めるには3式以上の関係式を立てられれば良いことになる。そこで、画像処理装置7は、対象者Aに1点の規定点を注視させた際の残りのカメラ2c,2dのいずれかのカメラの画像を用いて、角膜反射−瞳孔中心ベクトルr=(x,y)をさらに検出し(図9)、このベクトルrと角度θを下記式(7);
θ=k|r−r| …(7)
に代入して3つ目の関係式を導く。そして、画像処理装置7は、3式の関係式で連立方程式を立てることにより、パラメータk,x,yを計算して補正値として記憶させることができる。なお、図1に示すように、注視点検出装置1には4組のカメラ2a,2b,2c,2d及び光源3a,3b,3c,3dが設けられているが、パラメータ補正処理を実現するためには、少なくとも3組が設けられていればよい。
上述したようなパラメータ補正処理は、1秒程度の期間内におけるカメラ画像の30フレームを対象に実行され、それぞれのフレームに対して計算されたパラメータを平均した値が補正値として記憶される。
また、画像処理装置7は、視線方向計算ステップにおいて、式(3)に代わりに、下記式(8);
θ=f(r)=k|r’|+h|r’| …(8)
のように、ベクトル|r’|と角度θとの関係が非線形な関数fを用いても良い。視線の角度θが20度程度までは式(3)のような線形性が成立するが、30度程度になると多くの対象者Aに関して非線形性が強くなる。この場合、画像処理装置7は、未知のパラメータとして4つのパラメータk,h,x,yを持つことになるので、パラメータ補正処理を実現するために、4式以上の関係式が必要となる。そこで、画像処理装置7は、対象者Aに1点の規定点を注視させた際の4台のカメラ2a,2b,2c,2dのカメラの画像を用いて、ベクトルr=(x,y)(i=1〜4)を検出し、このベクトルrと角度θを上記式(8)に代入して4つの関係式を導く。そして、画像処理装置7は、4式の関係式で連立方程式を立てることにより、4つのパラメータk,h,x,yを計算して補正値として記憶させることができる。すなわち、この場合にパラメータ補正を行うためには、カメラと光源の組み合わせが少なくとも4組必要ということになる。
さらに、画像処理装置7は、視線方向計算ステップにおいて、下記式(8)に代わりに、|r’|の2乗、3乗等の他の複数の非線形項を含む式を用いても良いし、非線形項の乗数自体を未定パラメータとして設定してもよい。このような場合も、補正が必要なパラメータ数以上の関係式が導かれるように、注視点検出装置1のカメラの台数が所定数以上に設定される。
なお、パラメータ補正の際に対象者Aに注視させる規定点に関しては、非線形な関数に対応するためには、各カメラから均等な距離の位置では無く、各カメラからの距離が互いにずれた位置を注視させるようにすることが好ましい。この場合、例えば、ディスプレイ画面の右端等を注視させると、各カメラからの距離が互いにずれるように異なることになり、非線形式のパラメータが正確に求められ、較正精度がより高まる。
(他のパラメータ補正手順)
また、上記のパラメータ補正手順では、角度θをスカラー量としてパラメータ補正に用いていたが、下記のように角度θをベクトルとして扱ってもよい。図10では、図8に示した仮想視点球面Sの平面上への投影図において、角度θがベクトルとして図示されている。また、図11(a),(b)には、2台のカメラ2b,2aのカメラ画像上で検出されたベクトルr,r’(i=1,2)を図示している。このように、画像処理装置7によってカメラ画像から直接検出されるのはベクトルr,rであり、ベクトルr10,r20は、それぞれのカメラ画像に対応する原点補正ベクトルである。
図10及び図11に示す2次元空間のx軸及びy軸を複素平面上の実数軸及び虚数軸に対応させ、虚数単位を「j」で表すとする。原点補正後のベクトルr’,r’の傾きφ’,φ’と、仮想視点平面上の角度φ,φとの間の関係は、φ=φ’,φ=φ’であり、ベクトルθとベクトルr’は平行であり、ベクトルθとベクトルr’は平行であるので、下記式(9)及び下記式(10);
Figure 0005858433

Figure 0005858433

が成り立つ。さらに、原点補正ベクトルr10,r20は、下記式(11)及び下記式(12);
Figure 0005858433

Figure 0005858433

と表される。ここで、原点補正ベクトルr10,r20は、2つのカメラでの検出結果において等しいと考えられるので、r10=r20=rの関係より、以下の2つの関係式(13),(14)が導かれる。これらの式(13),(14)中における未知パラメータはパラメータsのみであるので、画像処理装置7は、両方の式からパラメータsを求めてその平均値を補正値とすることができる。さらに、画像処理装置7は、決定されたパラメータsを式(11)に代入することで、原点補正ベクトルrを決定することができる。
Figure 0005858433

Figure 0005858433
すなわち、上記式(11),(12)に含まれる実数成分及び虚数成分を考慮した4式の関係式に対して、未知のパラメータは原点補正ベクトルrの2成分とゲイン値kの逆数であるパラメータsの3つである。従って、画像処理装置7は、対象者Aに1点の規定点を注視させた際の少なくとも2台のカメラによって得られたカメラ画像を基に、3つのパラメータを計算して補正値として決定することができる。
ここでも、画像処理装置7は、視線方向計算ステップにおいて、ベクトル|r’|と角度θとの関係が非線形な関数を用いても良い。具体的には、式(9)に代わりに、下記式(15);
|r’|=s|θ|−t|θ …(15)
を用いる。このような非線形関数に基づいて、原点補正ベクトルr10,r20は、下記式(16)及び下記式(17)のように計算される。
Figure 0005858433

Figure 0005858433

上記式(16),(17)に含まれる実数成分及び虚数成分を考慮した4式の関係式に対して、未知のパラメータは原点補正ベクトルrの2成分とパラメータs,tの4つである。従って、画像処理装置7は、対象者Aに1点の規定点を注視させた際の少なくとも2台のカメラによって得られたカメラ画像を基に、非線形要素も考慮した4つのパラメータを計算して補正値として決定することができる。
また、画像処理装置7は、上記式(11),(12)を利用した方法に代えて、次のようにしてパラメータを補正することもできる。すなわち、原点補正ベクトルr10=r20=rの関係を用いて、ベクトルθは下記式(18)で与えられる。
Figure 0005858433

さらに、図10を参照すると、下記式(19);
Figure 0005858433

が得られる。上記式(19)の右辺は角OPOをベクトル化して表現したものである。上記式(18)に含まれる実数成分及び虚数成分を考慮した4式の関係式に対して、未知のパラメータは原点補正ベクトルrの2成分とパラメータkの3つである。従って、画像処理装置7は、対象者Aに1点の規定点を注視させた際の少なくとも2台のカメラによって得られたカメラ画像を基に、3つのパラメータを計算して補正値として決定することができる。
上記のように、様々なパラメータ補正手順により未定定数を正確に決定するためには、未定定数の数をMとしたときに、カメラの台数を少なくともM×1/2(端数は切り上げ)以上であることが必要であることがわかる。
以上説明した注視点検出装置1及び注視点検出装置1を用いた注視点検出方法によれば、4台のカメラ2a,2b,2c,2d及びその開口部外側の光源3a,3b,3c,3dによって対象者Aの顔画像が生成され、それぞれの顔画像を基に対象者の角膜反射点から瞳孔中心までのベクトルr(i=1〜4)が4台のカメラ2a,2b,2c,2dごとに対応して計算され、それぞれのベクトルrを関数に適用することによって、対象者Aの視線の基準線に対する角度θが4台のカメラごとに対応して計算される。さらに、このようにして計算されたそれぞれの角度θを基に未知パラメータの個数以上の関係式が導かれ、それらの関係式を用いて上記関数に含まれるパラメータが補正される。そして、補正された関数を用いて対象者Aの顔画像から視線の方向及び注視点Qが検出される。これにより、対象者Aに複数の規定点を注視させることなく、また、対象者にカメラの開口部を注視させることもなく、視線方向を算出するための関数に関する自動補正が高精度に実行される。その結果、対象者の負担が軽減されるとともに、高速かつ高精度の注視点検出が可能になる。
また、上記関数が原点補正ベクトルrも含めて補正されるので、その結果ゲイン値kも正確に求められ、視点を検出するディスプレイ画面の全体にわたって視線の角度θをより正確に計算することができる。
例えば、関数fに含まれるパラメータk,rを、対象者Aにカメラの開口部を含む複数の規定点を注視させることによって補正することも考えられる。しかしながら、その場合は対象者Aが2点以上を注意深く固視する必要があるため対象者Aにとって負担となる。また、複数の規定点を順番に見させる必要があるため、対象者Aに対する指示が困難であったり、実際に対象者がどの規定点を見ているか判断しにくかったりするため、パラメータ較正が不正確になる。また、カメラの開口部を見させることは実際上困難であり、その結果パラメータrの補正値が正確に得られないことが考えられる。そうすると、ゲイン値kの補正値の誤差も大きくなり、実際に対象者Aが注視している点と検出される注視点位置とのずれ(注視点検出誤差)が指標位置によって変化してくるため、その後の再補正も困難となる。これに対して、本実施形態では、1点の規定点のみを見させれば足るため、対象者Aの負担が軽くなるとともに、規定点としてカメラの開口部を見させる必要も無いため、注視点検出誤差もディスプレイ画面全体にわたって小さくなる。
また、本実施形態の注視点検出装置1及び注視点検出方法は、被験者が相対する人の眼やディスプレイ等に映った人の眼を見ている時間と他所を見ている時間の比率の差を判断することにより被験者の自閉症診断を支援するシステムにも適用できる。
なお、本発明は、前述した実施形態に限定されるものではない。例えば、本発明の注視点検出方法においては、パラメータ補正手順として他の様々な変形態様を採用することができる。例えば、画像処理装置7は、以下のようなパラメータ較正手順によって、対象者Aに予め指定された規定点を見させることなく、対象者が適当な位置を見ている間にパラメータ較正を完了させることもできる。
図12には、このときのパラメータ較正手順を説明するための対象者Aの左右の瞳孔とディスプレイ装置8の画面上の注視点Qとの位置関係を示す図である。同図において、PとPは、それぞれ、左瞳孔と右瞳孔の中心座標を表し、注視点Qは、対象者Aの両目が共通に見ている点であるとする。つまり、直線PQと直線PQは、左右それぞれの目の視軸を表している。また、それぞれの直線PQ,PQ上の点G,GとG,Gは、カメラ2b,2aの位置O’,O’を含む2つの仮想視点平面とその直線との交点を表している。対象者Aの左右の眼球に対応して検出された視線の角度θをそれぞれθ ,θ ,θ ,θ とし、左右の眼球に対応するゲイン値kおよび原点補正ベクトルrを、k,kおよびr ,r とする。
この場合、画像処理装置7は、下記式(20);
Figure 0005858433

を用いて角度θ を計算することができる。また、角度θ はベクトルPQとベクトルP’の内積を用いて、下記式(21);
Figure 0005858433

の関係も導かれ、これらの式(20),(21)から、下記式(22);
Figure 0005858433

の関係も導くことができる。同様にして、角度θ ,θ ,θ に関しても、下記式(23)〜(25)が導かれる。
Figure 0005858433

Figure 0005858433

Figure 0005858433
そこで、2台のカメラによって得られたカメラ画像を基に、4つの関係式を導くことができ、それらにはk,k,r =(x ,y ),r =(x ,y )、及び注視点Qの2次元座標の8つの未知パラメータが含まれることになる。従って、画像処理装置7は、対象者Aの左右の目の視線のディスプレイ画面上の交点Qが一致するという拘束条件を用いて、4台のカメラ2a,2b,2c,2dによって得られたカメラ画像を基に8つの関係式を導き、これらを基にパラメータを計算して補正値として決定することができる。この場合も、パラメータ補正手順により未定定数を正確に決定するために、カメラの台数が8個×1/2=4台以上に設定されている。
また、画像処理装置7は、角度θ ,θ をベクトルとして扱うことによって導かれる関係式を用いて、パラメータ補正を実行することも可能である。詳細には、rとθ との関係に関しては、s=1/k,s=1/kとおくと、下記式(26);
Figure 0005858433

が導かれ、同様に下記式(27)も導かれる。
Figure 0005858433

さらに、原点補正ベクトルに関して下記式(28);
Figure 0005858433

も成立する。上記式(28)に含まれる実数成分及び虚数成分を考慮した8式の関係式に対して、未知のパラメータは2つの原点補正ベクトルr ,r の4成分とゲイン値kの逆数であるパラメータs,s、及び注視点Qの2次元座標の合計8つである。従って、画像処理装置7は、少なくとも2台のカメラによって得られたカメラ画像を基に、8つのパラメータを計算して補正値として決定することができる。また、画像処理装置7は、ベクトル|r’|と角度θとの関係が非線形な関数を用いても良く、その場合は式(15)〜(17)と同様な関係式を使用すれば、未定のパラメータを2つ増やしてもカメラを3台使用すればパラメータ補正を行うことができる。
また、カメラ2a,2b,2c,2dとしては、CCDカメラ、CMOSカメラ等のデジタルカメラを用いてもよい。
上記の側面に係る発明では、視線方向計算ステップでは、未定定数として係数k及びベクトルrを含む下記式(2);
θ=k|r−r| …(2)
を用いて角度θを計算し、未定定数決定ステップでは、係数k及びベクトルrを決定する、ことができる。この場合、関数fが原点補正も含めて決定されるので、その結果係数kも正確に求められ、視点を検出する面全体にわたって視線の角度θをより正確に計算することができる。
また、視線方向計算ステップでは、N台のカメラの顔画像上におけるベクトルrによる補正後のベクトルrの傾きφをさらに計算し、未定定数決定ステップでは、傾きφ及び角度θを少なくとも基にして導かれた複数の関係式を用いて、M個の未定定数を決定する、こともできる。この場合、関数fが視線のカメラの画像面に沿った角度を基に補正されるので、補正後の視線の方向の計算の精度が維持されるとともに、カメラの台数を削減しつつ視線計算の較正が実現される。
また、視線方向計算ステップでは、対象者に所定面上の規定点を注視させた際のN台のカメラに対応する角度θを計算し、未定定数決定ステップでは、規定点の位置及び角度θを基に、M個の未定定数を決定する、こともできる。こうすれば、所定画面上の1点の規定点を注視させることでM個の未定定数が決定可能にされるので、較正処理時の対象者に対する負担を軽減することができるとともに、即座に注視点検出が実行される。
さらに、ベクトル計算ステップでは、N台のカメラによるそれぞれの顔画像に基づいて、対象者の左右の目それぞれの角膜反射点から瞳孔までのベクトルr,rを計算し、視線方向計算ステップでは、N台のカメラに対応するそれぞれのベクトルr,rを基に、N台のカメラに関する基準線それぞれに対する対象者の左右の目それぞれの視線の角度θ,θを、関数fを用いて計算し、未定定数決定ステップでは、N台のカメラに対応する角度θ,θを基に、左右の目の視線と所定面との交点が一致するという条件を用いて、M個の未定定数を決定する、こともできる。このような構成を採れば、対象者に規定点を注視させることなく自動的に関数fの補正処理が実施可能にされ、較正処理時の対象者に対する負担をより一層軽減することができる。
本発明は、対象者の画像に基づいて所定平面上の対象者の注視点を検出する注視点検出方法及び注視点検出装置を使用用途とし、被験者に対する負担を低減しつつ高速かつ高精度の注視点検出を実現できるものである。
1…注視点検出装置、2a,2b,2c,2d…カメラ、3a,3b,3c,3d…光源、4…発光回路(制御回路)、5…同期信号発生器(制御回路)、6…遅延回路(制御回路)、7…画像処理装置(画像処理部)8…ディスプレイ装置、9a,9b,9c,9d…開口部、A…対象者、G…角膜反射点、P…瞳孔中心、Q…注視点、r,r,r…ベクトル、r,r10,r20…原点補正ベクトル。

Claims (6)

  1. N台(Nは2以上の自然数)のカメラ及び複数の光源を用いて、対象者の顔画像を生成する顔画像生成ステップと、
    前記N台のカメラによるそれぞれの顔画像に基づいて、前記光源からの光の前記対象者の角膜上の反射点である角膜反射点から瞳孔中心までの実距離を表すベクトルrを計算するベクトル計算ステップと、
    前記N台のカメラに対応するそれぞれの前記ベクトルrを基に、前記N台のカメラと前記瞳孔中心とを結ぶ基準線それぞれに対する前記対象者の視線の角度θを、関数fを用いて、少なくとも前記ベクトルrのオフセットベクトルであるベクトルrを含むM個の未定定数(Mは3以上の自然数)を含む下記式(1);
    θ=f(|r−r|) …(1)
    によって計算する視線方向計算ステップと、
    前記N台のカメラに対応して計算された前記角度θを少なくとも基にして導かれた複数の関係式を用いて、前記関数fに含まれる前記M個の未定定数を決定する未定定数決定ステップと、
    前記未定定数決定ステップによって決定された前記M個の未定定数を用いて前記視線方向計算ステップによって計算された前記視線の方向に基づき、前記対象者の注視点を検出する注視点検出ステップと、
    を備え、
    前記カメラの台数Nは、M×1/2個以上に設定されている、
    ことを特徴とする注視点検出方法。
  2. 前記視線方向計算ステップでは、前記未定定数として係数k及び前記ベクトルrを含む下記式(2);
    θ=k|r−r| …(2)
    を用いて前記角度θを計算し、
    前記未定定数決定ステップでは、前記係数k及び前記ベクトルrを決定する、
    ことを特徴とする請求項1記載の注視点検出方法。
  3. 前記視線方向計算ステップでは、前記N台のカメラの前記顔画像上における前記ベクトルrによる補正後の前記ベクトルrの傾きφをさらに計算し、
    前記未定定数決定ステップでは、前記傾きφ及び前記角度θを少なくとも基にして導かれた複数の関係式を用いて、前記M個の未定定数を決定する、
    ことを特徴とする請求項1又は2記載の注視点検出方法。
  4. 前記視線方向計算ステップでは、前記対象者に所定面上の規定点を注視させた際の前記N台のカメラに対応する前記角度θを計算し、
    前記未定定数決定ステップでは、前記規定点の位置及び前記角度θを基に、前記M個の未定定数を決定する、
    ことを特徴とする請求項1〜3のいずれか1項に記載の注視点検出方法。
  5. 前記ベクトル計算ステップでは、前記N台のカメラによるそれぞれの顔画像に基づいて、前記対象者の左右の目それぞれの前記角膜反射点から前記瞳孔中心までのベクトルr,rを計算し、
    前記視線方向計算ステップでは、前記N台のカメラに対応するそれぞれの前記ベクトルr,rを基に、前記N台のカメラに関する前記基準線それぞれに対する前記対象者の左右の目それぞれの視線の角度θ,θを、前記関数fを用いて計算し、
    前記未定定数決定ステップでは、前記N台のカメラに対応する前記角度θ,θを基に、前記左右の目の視線と所定面との交点が一致するという条件を用いて、前記M個の未定定数を決定する、
    ことを特徴とする請求項1〜3のいずれか1項に記載の注視点検出方法。
  6. 対象者の顔画像に基づいて、該対象者の注視点を検出する注視点検出装置であって、
    前記対象者の顔画像を取得するN台のカメラと、
    複数の光源と、
    前記カメラ及び光源を制御する制御回路と、
    前記N台のカメラから出力された画像信号を処理する画像処理部とを備え、
    前記画像処理部は、
    前記N台のカメラによるそれぞれの顔画像に基づいて、前記光源からの光の前記対象者の角膜上の反射点である角膜反射点から瞳孔中心までの実距離を表すベクトルrを計算し、前記N台のカメラに対応するそれぞれの前記ベクトルrを基に、前記N台のカメラと前記瞳孔中心とを結ぶ基準線それぞれに対する前記対象者の視線の角度θを、関数fを用いて、少なくとも前記ベクトルrのオフセットベクトルであるベクトルrを含むM個の未定定数(Mは3以上の自然数)を含む下記式(1);
    θ=f(|r−r|) …(1)
    によって計算し、
    前記N台のカメラに対応して計算された前記角度θを少なくとも基にして導かれた複数の関係式を用いて、前記関数fに含まれる前記M個の未定定数を決定し、
    当該決定された前記M個の未定定数を用いて上記式(1)によって計算された前記視線の方向に基づき、前記対象者の注視点を検出し、
    前記カメラの台数Nは、M×1/2個以上に設定されている、
    ことを特徴とする注視点検出装置。
JP2012547890A 2010-12-08 2011-12-07 注視点検出方法及び注視点検出装置 Active JP5858433B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012547890A JP5858433B2 (ja) 2010-12-08 2011-12-07 注視点検出方法及び注視点検出装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010274074 2010-12-08
JP2010274074 2010-12-08
PCT/JP2011/078302 WO2012077713A1 (ja) 2010-12-08 2011-12-07 注視点検出方法及び注視点検出装置
JP2012547890A JP5858433B2 (ja) 2010-12-08 2011-12-07 注視点検出方法及び注視点検出装置

Publications (2)

Publication Number Publication Date
JPWO2012077713A1 JPWO2012077713A1 (ja) 2014-05-22
JP5858433B2 true JP5858433B2 (ja) 2016-02-10

Family

ID=46207199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012547890A Active JP5858433B2 (ja) 2010-12-08 2011-12-07 注視点検出方法及び注視点検出装置

Country Status (4)

Country Link
US (1) US9329683B2 (ja)
EP (1) EP2649932A4 (ja)
JP (1) JP5858433B2 (ja)
WO (1) WO2012077713A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103380625A (zh) * 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
JP5983131B2 (ja) * 2012-07-19 2016-08-31 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP6217445B2 (ja) * 2013-03-07 2017-10-25 株式会社Jvcケンウッド 診断支援装置および診断支援方法
GB2511868B (en) * 2013-03-15 2020-07-15 Tobii Ab Eye/gaze tracker and method of tracking the position of an eye and/or a gaze point of a subject
WO2014188727A1 (ja) * 2013-05-22 2014-11-27 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
JP6142824B2 (ja) * 2013-07-30 2017-06-07 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP6217446B2 (ja) * 2013-06-28 2017-10-25 株式会社Jvcケンウッド 制御装置、診断支援装置、制御方法及び制御プログラム
JP6142822B2 (ja) * 2013-07-29 2017-06-07 株式会社Jvcケンウッド 診断支援装置および診断支援方法
EP2887184A1 (en) * 2013-12-23 2015-06-24 Movea Air pointer with improved user experience
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
JP2015152939A (ja) 2014-02-10 2015-08-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6324119B2 (ja) * 2014-03-04 2018-05-16 国立大学法人静岡大学 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JP6361193B2 (ja) * 2014-03-14 2018-07-25 富士通株式会社 光源装置、発光方法及び端末装置
WO2015190204A1 (ja) * 2014-06-09 2015-12-17 国立大学法人静岡大学 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP6583734B2 (ja) * 2014-08-22 2019-10-02 国立大学法人静岡大学 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
KR101610496B1 (ko) * 2014-08-26 2016-04-07 현대자동차주식회사 시선 추적 방법 및 장치
WO2016031666A1 (ja) * 2014-08-29 2016-03-03 アルプス電気株式会社 視線検出装置
JP6430813B2 (ja) * 2014-12-25 2018-11-28 国立大学法人静岡大学 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
JP2016151798A (ja) * 2015-02-16 2016-08-22 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP6327171B2 (ja) * 2015-02-16 2018-05-23 株式会社Jvcケンウッド 注視点検出装置および注視点検出方法
US10061383B1 (en) * 2015-09-16 2018-08-28 Mirametrix Inc. Multi-feature gaze tracking system and method
KR101697286B1 (ko) * 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
CN107111381A (zh) * 2015-11-27 2017-08-29 Fove股份有限公司 视线检测系统、凝视点确认方法以及凝视点确认程序
JP6097377B1 (ja) * 2015-11-27 2017-03-15 株式会社コロプラ 画像表示方法及びプログラム
JP6638354B2 (ja) * 2015-12-01 2020-01-29 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
JP6631951B2 (ja) * 2015-12-18 2020-01-15 国立大学法人静岡大学 視線検出装置及び視線検出方法
US10137893B2 (en) * 2016-09-26 2018-11-27 Keith J. Hanna Combining driver alertness with advanced driver assistance systems (ADAS)
US9898082B1 (en) * 2016-11-01 2018-02-20 Massachusetts Institute Of Technology Methods and apparatus for eye tracking
US10777018B2 (en) * 2017-05-17 2020-09-15 Bespoke, Inc. Systems and methods for determining the scale of human anatomy from images
CN107357429B (zh) * 2017-07-10 2020-04-07 京东方科技集团股份有限公司 用于确定视线的方法、设备和计算机可读存储介质
US11042994B2 (en) 2017-11-15 2021-06-22 Toyota Research Institute, Inc. Systems and methods for gaze tracking from arbitrary viewpoints
US10564716B2 (en) 2018-02-12 2020-02-18 Hong Kong Applied Science and Technology Research Institute Company Limited 3D gazing point detection by binocular homography mapping
CN108737642A (zh) * 2018-04-13 2018-11-02 维沃移动通信有限公司 内容的显示方法及装置
US10324529B1 (en) * 2018-05-31 2019-06-18 Tobii Ab Method and system for glint/reflection identification
TWI704473B (zh) * 2018-11-16 2020-09-11 財團法人工業技術研究院 視線向量偵測方向與裝置
US11436756B2 (en) * 2018-12-20 2022-09-06 Microsoft Technology Licensing, Llc Calibrating a machine vision camera
WO2021059096A1 (en) * 2019-09-27 2021-04-01 Alcon Inc. Patient-induced trigger of a measurement for ophthalmic diagnostic devices
CN114222521A (zh) * 2019-09-27 2022-03-22 爱尔康公司 即时眼睛凝视校准系统和方法
CN111772572B (zh) * 2020-05-09 2022-12-20 温州医科大学 一种人眼Kappa角测量装置及Kappa角测量方法
JP7532094B2 (ja) 2020-05-29 2024-08-13 キヤノン株式会社 観察装置および撮像装置
CN113808160B (zh) * 2021-08-05 2024-01-16 虹软科技股份有限公司 视线方向追踪方法和装置
CN114680889A (zh) * 2022-03-08 2022-07-01 中国石油大学(北京) 钻井作业人员的不安全行为识别方法和装置
SE545952C2 (en) * 2022-03-31 2024-03-26 Tobii Ab Dynamic Camera Rotation Calibration

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005185431A (ja) * 2003-12-25 2005-07-14 National Univ Corp Shizuoka Univ 視線検出方法および視線検出装置
JP2005198743A (ja) * 2004-01-14 2005-07-28 National Univ Corp Shizuoka Univ 三次元視点計測装置
JP2005230049A (ja) * 2004-02-17 2005-09-02 National Univ Corp Shizuoka Univ 距離イメージセンサを用いた視線検出装置
WO2007113975A1 (ja) * 2006-03-31 2007-10-11 National University Corporation Shizuoka University 視点検出装置
JP2008029702A (ja) * 2006-07-31 2008-02-14 National Univ Corp Shizuoka Univ 瞳孔を検出する方法及び装置
JP2009297323A (ja) * 2008-06-16 2009-12-24 Kobe Univ 視線計測装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US6659611B2 (en) * 2001-12-28 2003-12-09 International Business Machines Corporation System and method for eye gaze tracking using corneal image mapping
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
EP1691670B1 (en) * 2003-11-14 2014-07-16 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
US7686451B2 (en) * 2005-04-04 2010-03-30 Lc Technologies, Inc. Explicit raytracing for gimbal-based gazepoint trackers
CN102149325B (zh) * 2008-09-26 2013-01-02 松下电器产业株式会社 视线方向判定装置及视线方向判定方法
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP5915981B2 (ja) * 2010-08-09 2016-05-11 国立大学法人静岡大学 注視点検出方法及び注視点検出装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005185431A (ja) * 2003-12-25 2005-07-14 National Univ Corp Shizuoka Univ 視線検出方法および視線検出装置
JP2005198743A (ja) * 2004-01-14 2005-07-28 National Univ Corp Shizuoka Univ 三次元視点計測装置
JP2005230049A (ja) * 2004-02-17 2005-09-02 National Univ Corp Shizuoka Univ 距離イメージセンサを用いた視線検出装置
WO2007113975A1 (ja) * 2006-03-31 2007-10-11 National University Corporation Shizuoka University 視点検出装置
JP2008029702A (ja) * 2006-07-31 2008-02-14 National Univ Corp Shizuoka Univ 瞳孔を検出する方法及び装置
JP2009297323A (ja) * 2008-06-16 2009-12-24 Kobe Univ 視線計測装置

Also Published As

Publication number Publication date
WO2012077713A1 (ja) 2012-06-14
JPWO2012077713A1 (ja) 2014-05-22
US20130329957A1 (en) 2013-12-12
EP2649932A4 (en) 2017-06-14
US9329683B2 (en) 2016-05-03
EP2649932A1 (en) 2013-10-16

Similar Documents

Publication Publication Date Title
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
JP5915981B2 (ja) 注視点検出方法及び注視点検出装置
JP6963820B2 (ja) 視線検出装置
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP6631951B2 (ja) 視線検出装置及び視線検出方法
US8371693B2 (en) Autism diagnosis support apparatus
US11023039B2 (en) Visual line detection apparatus and visual line detection method
JP6324119B2 (ja) 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JPWO2007113975A1 (ja) 視点検出装置
US10542875B2 (en) Imaging device, endoscope apparatus, and imaging method
JP2016099759A (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP6452236B2 (ja) 眼球識別装置及び眼球識別方法
JP7046347B2 (ja) 画像処理装置及び画像処理方法
JP6346018B2 (ja) 眼球計測システム、視線検出システム、眼球計測方法、眼球計測プログラム、視線検出方法、および視線検出プログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6780161B2 (ja) 視線検出装置及び視線検出方法
JP6430813B2 (ja) 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
JP2012029940A (ja) 視線計測方法及び視線計測装置
US20130321608A1 (en) Eye direction detecting apparatus and eye direction detecting method
JP2016057906A (ja) 視点位置の計測方法及び計測システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151209

R150 Certificate of patent or registration of utility model

Ref document number: 5858433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250