JP7030317B2 - 瞳孔検出装置及び瞳孔検出方法 - Google Patents

瞳孔検出装置及び瞳孔検出方法 Download PDF

Info

Publication number
JP7030317B2
JP7030317B2 JP2016245664A JP2016245664A JP7030317B2 JP 7030317 B2 JP7030317 B2 JP 7030317B2 JP 2016245664 A JP2016245664 A JP 2016245664A JP 2016245664 A JP2016245664 A JP 2016245664A JP 7030317 B2 JP7030317 B2 JP 7030317B2
Authority
JP
Japan
Prior art keywords
image
pupil
pupils
subject
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016245664A
Other languages
English (en)
Other versions
JP2018099174A (ja
Inventor
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2016245664A priority Critical patent/JP7030317B2/ja
Publication of JP2018099174A publication Critical patent/JP2018099174A/ja
Application granted granted Critical
Publication of JP7030317B2 publication Critical patent/JP7030317B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の一形態は、瞳孔検出装置及び瞳孔検出方法に関する。
従来から、1台のカメラとそのカメラの撮像レンズの近傍に設けられた光源とを用いて対象者の顔画像を取得し、その顔画像を用いて左右の瞳孔中心の二次元座標及び左右の鼻孔中心の二次元座標を検出し、それらの二次元座標を基に算出した左右の瞳孔中心の三次元座標及び左右の鼻孔中心の三次元座標を基に顔姿勢を検出する方法が知られている(下記特許文献1参照)。この方法によれば、左右の瞳孔のそれぞれの三次元位置と、左右の鼻孔間の中点の三次元座標が算出でき、それらの3点を通る平面の法線を頭部方向として検出し、それらの3点の重心を頭部位置として検出することができる。また、この方法を発展させた方法として、時系列に得られた画像フレームにおける瞳孔あるいは鼻孔等の特徴点の移動予測を高精度に行うことで、対象者の頭部に動きがあった場合に特徴点の追跡のロバスト性を向上させる方法が知られている(下記特許文献2参照)。
一方で、対象者の視線を検出する装置において、1台のカメラで取得された顔画像を基に検出された瞳孔の二次元位置及び角膜反射の二次元位置を用いて視線および注視点を算出するために、2台のカメラをさらに設けて瞳孔の三次元位置を検出する構成が知られている(下記特許文献3参照)。
特許第4431749号公報 特許第5429885号公報 特許第4517049号公報
しかしながら、上述した特許文献1及び特許文献1に記載の方法においては、対象者の視線が変化した場合に、瞳孔の三次元位置の検出精度が低下する傾向にある。すなわち、視線が変化するとカメラから見た検出対象の2つの瞳孔と鼻孔との3点間の位置関係が変化するために、カメラで取得された顔画像を用いて検出された瞳孔の三次元位置に誤差が生じやすい。上述した特許文献3に記載の構成によれば、2台のカメラを用いることで瞳孔の三次元座標の検出精度は維持できるが光学システムの構成が複雑化する傾向にある。
本発明は、上記課題に鑑みて為されたものであり、光学システムの構成を単純化しながら瞳孔の位置の検出精度をより向上させることが可能な瞳孔検出装置及び瞳孔検出方法を提供することを目的とする。
上記課題を解決するため、本発明の一形態にかかる瞳孔検出装置は、対象者の顔を撮像する撮像装置と顔を照明する照明装置とを含む光学システムと、撮像装置によって出力された画像を基に対象者の2つの瞳孔の三次元位置を算出する処理部と、を備え、処理部は、画像上で検出した2つの瞳孔のそれぞれの位置と、対象者の眼球の光軸の方向とを基に、対象者の2つの眼球のそれぞれの回転中心の画像上の位置を算出する回転中心算出部と、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの瞳孔の三次元位置を算出する瞳孔位置算出部と、を有する。
或いは、本発明の他の形態にかかる瞳孔検出方法は、対象者の顔を照明装置によって照明しながら顔を撮像装置によって撮像するステップと、撮像装置によって出力された画像を基に対象者の2つの瞳孔の三次元位置を算出するステップと、を備え、三次元位置を算出するステップは、画像上で検出した2つの瞳孔のそれぞれの位置と、対象者の眼球の光軸の方向とを基に、対象者の2つの眼球のそれぞれの回転中心の画像上の位置を算出するステップと、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの瞳孔の三次元位置を算出するステップと、を有する。
上記形態の瞳孔検出装置、あるいは瞳孔検出方法によれば、光学システムによって取得された画像上の2つの瞳孔のそれぞれの位置と眼球の光軸の方向とを基に2つの眼球のそれぞれの回転中心の画像上の位置が算出され、算出された2つの眼球の回転中心の画像上の位置と鼻孔の画像上の位置とを基に、2つの瞳孔の三次元位置が算出される。これにより、対象者の視線方向が変化した場合であっても2つの眼球の回転中心と鼻孔との3点の位置関係は維持されるので、高精度の瞳孔の位置検出が実現される。加えて、光学システムにおける撮像装置の台数が削減可能とされ、光学システムの構成が単純化される。
ここで、上記形態の瞳孔検出装置においては、回転中心算出部は、2つの瞳孔のそれぞれの位置と2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する、ことが好適である。この場合、瞳孔の画像上の位置と角膜反射の画像上の位置から眼球の回転中心の画像上の位置が算出され、簡易な演算で高精度の瞳孔の位置検出が可能となる。
また、回転中心算出部は、画像上で検出される2つの瞳孔のそれぞれに関する楕円度を基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する、ことも好適である。この場合にも、画像上での瞳孔に関する楕円度を使って求められた光軸の方向を基にして眼球の回転中心の画像上の位置が算出され、高精度の瞳孔の位置検出が可能となる。
また、処理部は、回転中心算出部として、2つの瞳孔のそれぞれの位置と2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第1の処理部と、画像上で検出される2つの瞳孔のそれぞれに関する楕円度を基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第2の処理部とを含んでおり、第1の処理部による処理結果と第2の処理部による処理結果を加味して2つの瞳孔の三次元位置を算出する、ことも好適である。この場合、角膜反射の画像上の位置を利用した算出結果と画像上で検出された瞳孔に関する楕円度を利用した算出結果を加味することにより、より高精度の瞳孔の位置検出が実現される。
また、処理部は、回転中心算出部として、2つの瞳孔のそれぞれの位置と2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第1の処理部と、画像上で検出される2つの瞳孔のそれぞれに関する楕円度を基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第2の処理部とを含んでおり、第1の処理部及び第2の処理部のいずれかの処理結果を選択して用いることにより2つの瞳孔の三次元位置を算出する、ことも好適である。かかる構成では、角膜反射の画像上の位置を利用した算出結果と画像上で検出された瞳孔に関する楕円度を利用した算出結果を選択して用いることにより、より高精度の瞳孔の位置検出が実現される。
また、対象者の一方の瞳孔に対応する角膜反射が検出され、対象者の他方の瞳孔に対応する角膜反射が検出されなかった場合、第1の処理部及び第2の処理部の処理結果のうち、一方の瞳孔に関する第1の処理部の処理結果を優先して用いる、ことが好適である。これにより、より高精度の瞳孔の位置検出が実現される。
さらに、瞳孔位置算出部は、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの眼球の回転中心の三次元位置と鼻孔の三次元位置とを算出することにより、対象者の顔方向を検出する、ことも好適である。かかる構成により、対象者の顔方向を高精度で検出することができる。
またさらに、眼球の光軸の方向を基に対象者の視線方向を求める視線検出部をさらに備え、瞳孔位置算出部は、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの眼球の回転中心の三次元位置と鼻孔の三次元位置とを算出することにより、対象者の顔方向を検出し、視線検出部は、対象者の顔方向を基に、対象者の視線方向が二方向のうちのどちらであるかを判定する、ことも好適である。これにより、高精度の視線検出が可能となる。
さらにまた、光学システムを少なくとも2系統備え、処理部は、少なくとも2系統の光学システムから出力された画像を基に、2つの瞳孔の間の第1の距離、及び瞳孔と鼻孔との間の第2の距離とを計測し、第1の距離及び第2の距離とを用いて、2つの瞳孔の三次元位置を算出する、ことが好適である。これにより、広範囲に位置する対象者を対象に高精度の視線検出が可能となる。
本発明によれば、光学システムの構成を単純化しながら瞳孔の位置の検出精度をより向上させることができる。
第1実施形態に係る瞳孔検出装置を示す平面図である。 図1の画像処理装置1のハードウェア構成を示すブロック図である。 図1の画像処理装置1の機能構成を示すブロック図である。 図3の特徴点検出部17による計算の前提となる眼球モデルを示す平面図である。 図4の眼球モデルでモデル化された対象者Aの眼部を対象にしてカメラ2で撮像された画像イメージを示す図である。 第2実施形態の瞳孔検出装置を構成する画像処理装置1Aの機能構成を示すブロック図である。 (a)部及び(b)部は、図6の視線検出部19Aの実行する瞳孔形状法の原理を説明するための図である。 図6の視線検出部19Aの実行する瞳孔形状法の原理を説明するための図である。 第3実施形態の瞳孔検出装置を構成する画像処理装置1Bの機能構成を示すブロック図である。 光学系4に対する対象者Aの状態を示す平面図である。 光学系4に対する対象者Aの状態を示す平面図である。
以下、図面を参照しつつ本発明に係る瞳孔検出装置の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。また、各図面は説明用のために作成されたものであり、説明の対象部位を特に強調するように描かれている。そのため、図面における各部分の寸法比率は、必ずしも実際のものとは一致しない。
[第1実施形態]
まず、図1~図3を参照しながら、第1実施形態に係る瞳孔検出装置10の構成を説明する。図1は、瞳孔検出装置10の平面図であり、図2は、図1の画像処理装置1のハードウェア構成を示すブロック図、図3は、図1の画像処理装置1の機能構成を示すブロック図である。本実施形態の瞳孔検出装置は、対象者の視線移動を検出することによってパーソナルコンピュータのモニタ画面上のカーソルを移動させるポインティングデバイス、瞳孔又は視線の動きを監視して運転者の眠気を検知する眠気検知システム、対象者の瞳孔又は視線の動きを検出して自閉症等の診断を行う診断システム等として利用される。
図1に示すように、瞳孔検出装置10は、対象者Aの顔画像を撮像する1台のカメラ(撮像装置)2、カメラ2の前面2aの撮像レンズの近傍に設けられ対象者Aの顔を照明する光源(照明装置)3a、及びカメラ2の前面2aから離れた位置に設けられ対象者Aの顔を照明する光源(照明装置)3bを含む光学系(光学システム)4と、カメラ2及び光源3a,3bと接続された画像処理装置1とを備えている。この画像処理装置1は、カメラ2によって対象者Aの顔画像を基に、対象者Aの左右の瞳孔の三次元位置を算出するとともに、それを基に対象者Aの視線方向あるいは注視点と対象者Aの顔姿勢(顔方向)とを検出する演算部(プロセッサ)である。
カメラ2は、対象者Aの顔画像を生成できる撮像装置であれば特定の種類のものには限定されないが、画像データをリアルタイム性が高く処理できるという点で、CCD、CMOS等の撮像素子を内蔵するデジタルカメラを用いる。このカメラ2は、対象者Aがカメラ2の前面2aに向かい合うように配置されている。
光源3aは、カメラ2の光軸L1に沿って、光軸L1上に位置する対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。光源3bは、光軸L1からの距離が光源3aよりも離れた位置に固定され、光軸L1に沿って対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。ここで、2つの光源3a,3bから照射される照明光が瞳孔の部分に輝度差を生じさせるような異なる波長成分(例えば、中心波長が850nmと950nm)を有するように設定され、かつ、光源3bは光軸L1からの距離が光源3aと等しい位置に固定されていてもよい。また、光源3a,3bは、1つの発光素子で構成されるものには限らず、複数の発光素子が所定の形状(円形状、リング状等)で配置されているものであってもよい。この場合は、瞳孔の部分に輝度差を生じさせながら、光源の構成を簡略化及び小型化することができる。ただし、必ずしも光源3a,3bが異なる波長成分の照明光を照射するものでなくてもよいし、それぞれの光源3a,3bが、リング状でなくてもよい。
なお、カメラ2及び光源3a,3bは、対象者Aが眼鏡をかけていたときの顔画像における反射光の写り込みを防止し、対象者Aの鼻孔を検出し易くする目的で、対象者Aの顔の高さよりも低い位置(例えば、光軸L1の水平面に対する傾斜角が20~35度となり、光軸L1が対象者Aの方向を向くような位置)に設けられることが好ましい。
画像処理装置1は、カメラ2による撮像、及び光源3a,3bによる照明光の照射を制御するとともに、カメラ2によって取得された対象者Aの頭部画像に基づいて、対象者Aの瞳孔の三次元位置、対象者Aの視線方向および注視点、及び対象者Aの顔姿勢を検出する処理を実行する。
以下、図2及び図3を参照して、上述した画像処理装置1の構成について詳細に説明する。画像処理装置1は、カメラ2及び光源3a,3bの制御と、カメラ2によって取得された顔画像の処理を実行するコンピュータであり得る。画像処理装置1は、据置型又は携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置1は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
図2に示されるように、画像処理装置1は、CPU(プロセッサ)101と、主記憶部102と、補助記憶部103と、通信制御部104と、入力装置105と、出力装置106とを備える。CPU101は、オペレーティングシステムやアプリケーション・プログラムなどを実行する。主記憶部102は、ROM及びRAMで構成される。補助記憶部103は、ハードディスクやフラッシュメモリなどで構成される。通信制御部104は、ネットワークカードあるいは無線通信モジュールで構成される。入力装置105は、キーボードやマウスなどを含む。出力装置106は、ディスプレイやプリンタなどを含む。入力装置105及び出力装置106は、タッチパネルディスプレイであってもよい。
後述する画像処理装置1の各機能要素は、CPU101又は主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102又は補助記憶部103内に格納される。
図3に示されるように、画像処理装置1は機能的構成要素として、カメラ駆動ユニット11と、点灯制御ユニット12と、検出ユニット(処理部)13とを有する。カメラ駆動ユニット11は、カメラ2の撮影タイミングを制御する機能要素である。具体的には、カメラ2を所定のフレームレート及び所定の露光時間で繰り返し撮像し、顔画像として交互に明瞳孔画像及び暗瞳孔画像を取得するように制御する。この明瞳孔画像は、相対的に対象者Aの瞳孔が明るく映った状態の顔画像であり、暗瞳孔画像は、相対的に対象者Aの瞳孔が暗く映った状態の顔画像である。点灯制御ユニット12は、カメラ2の撮影タイミングに同期させて、光源3a,3bの点灯タイミングを制御する機能要素である。具体的には、点灯制御ユニット12は、明瞳孔画像の撮像時には光源3aを点灯させ、暗瞳孔画像の撮像時には光源3bを点灯させるように制御する。検出ユニット13は、カメラ2から出力された顔画像データを処理する機能要素である。処理結果の出力先は何ら限定されない。例えば、画像処理装置1は、処理結果を画像、図形、又はテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。
検出ユニット13は、機能的構成要素として、画像取得部14と、差分画像生成部16と、特徴点検出部(回転中心算出部)17と、顔姿勢検出部(瞳孔位置算出部)18と、視線検出部(瞳孔位置算出部)19とを有する。画像取得部14は、カメラ2から所定のフレームレートで交互に撮影される明瞳孔画像及び暗瞳孔画像を、顔画像データとして取得する。差分画像生成部16は、明瞳孔画像及び暗瞳孔画像の差分画像を生成する。具体的には、差分画像生成部16は、明瞳孔画像及び暗瞳孔画像の対応する画素間の輝度の差分を計算することにより、差分画像を生成する。
特徴点検出部17は、差分画像を利用して2つの瞳孔像の中心(瞳孔中心)の画像上位置(二次元位置)を算出し、明瞳孔画像及び暗瞳孔画像を利用してそれぞれの瞳孔像に対応する角膜反射像の二次元位置、及び2つの鼻孔像の中心(鼻孔中心)の二次元位置を算出する機能要素である。まず、特徴点検出部17は、差分画像を2値化し、孤立点除去、モルフォロジー処理によるノイズ除去、ラベリングを行う。そして、特徴点検出部17は、最も瞳孔らしい形状を有する画素群を、瞳孔として検出する。このとき、瞳孔がまぶたやまつ毛で隠れた場合にも、まぶたやまつ毛と瞳孔との境界を偽の瞳孔輪郭として排除し、真の瞳孔輪郭のみを楕円フィッティングして、求まる楕円の式から瞳孔中心の二次元位置を算出する。また、特徴点検出部17は、明瞳孔画像の瞳孔の近傍から瞳孔輝度よりも高い閾値で2値化し、角膜反射像の中心(角膜反射中心)の二次元位置を、輝度を考慮した重心として求める。瞳孔輝度は、楕円フィッティングした結果得られる楕円の面積ではなく、2値化して得られた瞳孔を構成する画素の輝度平均で与えられる。特徴点検出部17は、角膜反射中心の二次元位置を、暗瞳孔画像を対象にしても算出する。さらに、特徴点検出部17は、明瞳孔画像及び暗瞳孔画像を用いて、本発明者による特許第4431749号に記載の方法と同様にして、2つの鼻孔中心の二次元位置を算出する。
上記機能に加えて、特徴点検出部17は、対象者Aの2つの眼球の回転中心の画像上の位置(二次元位置)を算出する機能も有する。すなわち、特徴点検出部17は、図4に示すような眼球モデルを前提にして2つの眼球の回転中心の二次元位置を算出する。図4に示すように、対象者Aの眼部は、略球状の眼球EBの内部の前方寄りに略球状の角膜球CBが固定された構造を有し、対象者Aの視線が変化すると眼球EBと角膜球CBとが、眼球EBの中心である回転中心Eを中心にして一体的に回転運動をするという眼球モデルでモデル化される。この眼球モデルでは、カメラ2の前面の光源3a,3bによって照射される照明光のうち角膜球中心Cを通る方向の成分BMが角膜球CBの表面の点Crで反射されて角膜反射としてカメラ2の画像上に写ることとなる。また、対象者Aの視線に対応する眼球EBの光軸L2は、眼球の回転中心Eと角膜球中心Cと瞳孔中心Pとを通る直線に近似すると考えることができる。図5には、図4の眼球モデルでモデル化された対象者Aの眼部を対象にしてカメラ2で撮像された画像イメージを示しており、(a)部は眼部全体の画像イメージを、(b)部は画像イメージにおける主要点の位置関係を、それぞれ示している。図5の(a)部に示すように、カメラ2の画像上では、眼球の回転中心Eと角膜球中心Cと瞳孔中心Pとはほぼ一直線上に位置し、この角膜球中心Cの位置に一致して角膜反射像が現れる。このとき、上述した眼球モデルに従えば、図5の(b)部に示すように、画像上における瞳孔中心Pと角膜反射中心Crとの間の距離PCrと、画像上における瞳孔中心Pと眼球の回転中心Eとの間の距離PEとの比は、既定の比(1:t)で近似することができ、視線変化により対象者Aの光軸L2(図4)の方向が変化しても一定となる。例えば、論文「伴野 明,“視線検出のための瞳孔撮影光学系の設計法”, 電子情報通信学会論文誌D-II Vol.74-DII No.6 pp.736-747, 1991年6月」に記載された眼球モデルによれば、PC=4.3mm,PE=9.8mmと設定され、t=PE/PC=2.3 と想定される。つまり、三次元空間における距離PCと距離PEとの比は、画像上における距離PCrと距離PEとの比と同じとなる。
このような眼球モデルを想定して、特徴点検出部17は、顔画像上で検出した2つの瞳孔中心のそれぞれの二次元位置と、それに対応して検出された角膜反射中心を基に推定される対象者Aの眼球の光軸L2の画像上の方向とを基に、次のように処理する機能を有する。具体的には、特徴点検出部17は、それぞれの撮影タイミングで算出された瞳孔中心の二次元位置を示す位置ベクトルVとそれに対応する角膜反射中心の二次元位置を示す位置ベクトルVとを基に、下記式(1);
=V+t(V-V)=(1-t)V+tV …(1)
によって、眼球の回転中心の二次元位置を示す位置ベクトルVを算出する。ここで、上記式(1)中の係数tは、想定する眼球モデルに対応して予め設定される。特徴点検出部17は、同様の手順で、対象者の2つの眼球の回転中心の二次元位置を算出する。
顔姿勢検出部18は、特徴点検出部17によって算出された2つの眼球の回転中心の二次元位置及び2つの鼻孔中心の二次元位置とを基に、対象者Aの顔姿勢を検出する。すなわち、本発明者による特許第4431749号に記載の方法を応用して、2つの眼球の回転中心の二次元位置及び2つの鼻孔中心の2次元位置とを基に、2つの眼球の回転中心の三次元位置及び2つの鼻孔中心の三次元位置を算出する。さらに、同特許に記載の方法を応用して、顔姿勢検出部18は、2つの眼球の回転中心と2つの鼻孔中心とのうちの3点の組み合わせを第1及び第2基準部位群として選択して、それぞれの基準部位群を含む平面の法線ベクトルを算出して、それらの法線ベクトルの合成ベクトルを対象者Aの顔姿勢として導き出す。加えて、顔姿勢検出部18は、それぞれの第1及び第2基準部位群に含まれる3点の重心を算出し、2つの重心間の重心を対象者Aの顔位置として算出する。なお、顔姿勢検出部18は、2つの鼻孔中心の二次元位置の中点を用いて顔姿勢及び顔位置を算出してもよいし、2つの鼻孔中心の二次元位置のいずれか一方のみを用いて顔姿勢及び顔位置を算出してもよい。
ここで、顔姿勢検出部18は、顔姿勢の検出時には、基準部位群を構成する3点間の実測距離が画像処理装置1内の補助記憶部103(図2)等の記憶部から参照される。これにより、基準部位群を構成する3点の三次元位置を精度よく求めることができる。例えば、2つの鼻孔中心の二次元位置の中点を用いる場合には、2つの眼球の回転中心間の実測距離と、2つの鼻孔中心間の中点とそれぞれの眼球の回転中心との間の実測距離とが予め記憶されて、顔姿勢の検出時に参照される。これらの実測距離は、予め物差し等の計測具で実測することができる。例えば、2つの眼球の回転中心間の実測距離は、対象者Aに正面を遠方視させた状態で両目の瞳孔間距離を測定し、その測定値を眼球の回転中心間の距離と等しい仮定することにより得ることができる。一方で、2つの眼球の回転中心間の実測距離としては、人間の平均的な値として所定値(例えば、65mm)に設定されてもよい。鼻孔中心間の中点とそれぞれの眼球の回転中心までの実測距離の精度は、瞳孔の三次元位置の精度にはあまり影響しないが、検出される対象者Aの頭部の上下方向及び左右方向の姿勢に影響する。顔姿勢の左右方向の検出精度が高精度である必要がなければ、鼻孔中心間の中点とそれぞれの眼球の回転中心との間の実測距離が等しく設定されてもよい。また、顔姿勢の検出精度が高精度である必要がなければ、2つの瞳孔を結ぶ直線と鼻孔間中点の間の距離を実測した値が予め設定されてもよい。
視線検出部19は、特徴点検出部17によって検出された対象者Aの2つの瞳孔中心の二次元位置と、顔姿勢検出部18によって検出された対象者Aの2つの眼球の回転中心の三次元位置とを基に、対象者Aの2つの瞳孔の三次元位置を算出する。ここで、カメラ2の画像上に瞳孔像と角膜反射像とが同時に現れるのは光学系4と対象者Aの瞳孔中心Pとを結ぶ直線と眼球の光軸L2(図4)との成す角θが最大で30度と想定される。そもそも、眼球の回転中心Eは瞳孔中心Pと近く、それらの間の距離は上述した眼球モデルでは9.4mm程度と小さい。従って、対象者Aの視線が30度変化しても瞳孔中心のカメラ2からの距離は(1-cos30°)×100=13パーセント変化するだけである。よって、カメラ2から見て瞳孔中心Pは眼球の回転中心Eよりも手前の所定距離(例えば、9.4mm)の位置に存在すると推定できる。このことを利用して、視線検出部19は、カメラ2の光軸L1に垂直であってカメラ2からの距離が眼球の回転中心から所定距離(例えば、9.4mm)手前に位置する平面を設定し、その平面と、顔画像から得られるカメラ2の中心(ピンホール)と瞳孔中心Pとを通る直線と、の交点を求め、その交点を瞳孔中心Pの三次元位置として算出する。同様にして、視線検出部19は、2つの瞳孔中心Pの三次元位置を算出する。
さらに、視線検出部19は、対象者Aの眼部それぞれについて視線ベクトル(視線方向)および注視点を算出する。すなわち、瞳孔中心Pの三次元位置と、瞳孔中心Pの二次元位置と角膜反射中心の二次元位置とから計算される瞳孔中心Pから角膜反射中心までのベクトルrとを用いて、本発明者による特許第4517049の方法と同様にしてカメラ2と瞳孔中心とを通る直線と光軸L2とのなす角θを求めることにより、視線ベクトルおよび所定平面上の注視点を算出する。そして、視線検出部19は、2つの眼部それぞれについて算出した2つの視線ベクトルを用いて最終的な視線方向および注視点を算出する。
なお、視線検出部19は、瞳孔中心Pの代わりに角膜球中心Cを用いて視線方向を算出してもよい。すなわち、上述した眼球モデルでは、光軸L2は眼球の回転中心Eと角膜球中心Cとを通り、それらの間の距離は上述した眼球モデルでは5.6mm程度となる。そして、対象者Aの視線が30度変化しても角膜球中心のカメラ2から見た距離は13パーセント変化するだけであるので、カメラ2から見て角膜球中心Cは眼球の回転中心Eよりも手前の所定距離(例えば、5.6mm)の位置に存在すると推定できる。このことを利用して、視線検出部19は、カメラ2の光軸L1に垂直であってカメラ2からの距離が眼球の回転中心から所定距離(例えば、5.6mm)手前に位置する平面を設定し、その平面と、顔画像から得られるカメラ2の中心(ピンホール)と角膜反射中心Crとを通る直線と、の交点を求め、その交点を角膜球中心Cの三次元位置として算出する。さらに、視線検出部19は、角膜球中心Cの三次元位置と、瞳孔中心Pの二次元位置と角膜反射中心の二次元位置とから計算される瞳孔中心Pから角膜反射中心Crまでのベクトルrとを用いて、カメラ2と角膜球中心とを通る直線と光軸L2とのなす角θを求めることにより、視線ベクトルおよび所定平面上の注視点を算出することができる。
次に、上述した瞳孔検出装置10の動作手順について説明するとともに、本実施形態にかかる瞳孔検出方法について説明する。
まず、瞳孔検出装置10に対するユーザによる入力装置105を用いた指示入力によって瞳孔検出処理が起動されると、画像処理装置1によって、対象者Aの顔を光源3a,3bによって照明しながらその顔をカメラ2によって連続的に撮像するように制御される(撮像ステップ)。
その後、画像処理装置1の検出ユニット13により、カメラ2によって取得された明瞳孔画像と暗瞳孔画像を基に2つの眼球の回転中心Eの二次元位置が算出され、それを基に2つの瞳孔中心Pの三次元位置が算出される(瞳孔検出ステップ)。この瞳孔検出ステップは、明瞳孔画像と暗瞳孔画像とから生成された差分画像を基に瞳孔中心Pの二次元位置と対象者Aの眼球の光軸L2の画像上の方向とを検出し、それらを基に対象者Aの眼球の回転中心Eの二次元位置を算出するステップと、眼球の回転中心Eの二次元位置と対象者Aの鼻孔中心の二次元位置とを基に瞳孔中心Pの三次元位置を算出するステップとを含む。
最後に、画像処理装置1の検出ユニット13により、対象者Aの顔姿勢が算出されるとともに、対象者Aの視線方向および注視点が算出され、それらの結果が出力装置106に出力される(顔姿勢・視線検出ステップ)。
以上説明した瞳孔検出装置10によれば、光学系4によって取得された顔画像上の2つの瞳孔中心Pのそれぞれの二次元位置と眼球の光軸L2の画像上の方向とを基に2つの眼球のそれぞれの回転中心Eの二次元位置が算出され、算出された2つの眼球の回転中心Eの二次元位置と鼻孔中心の二次元位置とを基に、2つの瞳孔中心Pの三次元位置が算出される。ここで、対象者Aの視線方向が変化した場合であっても2つの眼球の回転中心Eと鼻孔中心との3点の位置関係は維持される。つまり、眼球は眼窩の中で回転運動をする球体であるとモデル化され、視線が変化して眼球が回転しても眼球の回転中心の位置はほとんど変化しない。従って、視線方向の変化があっても、眼球の骨格座標系に対する変動は限りなく少ない。一方で鼻孔も骨格座標系に対して固定されているので、結果的に、2つの眼球の回転中心と鼻孔中心との3点間の距離は視線方向が骨格座標系に対して変動しても変化しないことになる。この性質を利用することで、高精度の瞳孔の位置検出、さらには、高精度の顔姿勢の検出、高精度の視線方向および注視点の検出が実現される。加えて、瞳孔検出装置10の構成によれば、光学系におけるカメラの台数が削減可能とされ、光学系の構成が単純化される。
また、上記形態の瞳孔検出装置10においては、2つの瞳孔中心Pのそれぞれの二次元位置と2つの瞳孔中心Pのそれぞれに対応して生じる角膜反射中心Crの二次元位置とを基に眼球の光軸L2の方向が求められ、眼球の光軸L2の方向を基に回転中心Eの二次元位置が算出される。この場合、瞳孔中心Pの二次元位置と角膜反射中心Crの二次元位置から眼球の回転中心Eの二次元位置が算出されるので、簡易な演算で高精度の瞳孔の位置検出が可能となる。
さらに、2つの眼球の回転中心Eの二次元位置と、鼻孔中心の二次元位置とを基に、2つの眼球の回転中心Eの三次元位置と鼻孔中心の三次元位置とが算出されることにより対象者Aの顔姿勢が検出されるので、対象者Aの顔姿勢を高精度で検出することができる。
[第2実施形態]
次に、第2実施形態にかかる瞳孔検出装置の構成について説明する。図6は、第2実施形態の瞳孔検出装置を構成する画像処理装置1Aの機能構成を示すブロック図である。同図に示す画像処理装置1Aと第1実施形態にかかる画像処理装置1とでは、検出ユニット13に含まれる特徴点検出部17A、視線検出部19Aの機能が異なっている。
視線検出部19Aは、第1実施形態における瞳孔中心Pから角膜反射中心までのベクトルrとを用いた視線ベクトルの算出方法(以下、「瞳孔-角膜反射法」と呼ぶ。)に代えて、顔画像上で検出された瞳孔の形状を用いた視線ベクトルの算出方法(以下、「瞳孔形状法」と呼ぶ。)を実行する機能を有する。
視線検出部19Aが実行する瞳孔形状法の原理について説明する。図7の(a)部は、対象者Aがカメラ2を含む光学系4を見ているときの対象者Aの眼球EBを示す。図7の(b)部は、対象者Aが光学系4とは別の場所を見ているときの対象者Aの眼球EBを示す。図7の(a)部及び図7の(b)部では、対象者Aの眼球EBがカメラ2を含む光学系4から無限遠にあると仮定している。図7の(a)部に示されるように、対象者Aが光学系4を見ているとき、カメラ2から得られる顔画像における瞳孔EPの形状は、円である。この円の直径TDは長さA1である。一方、図7の(b)部及び図8に示されるように、カメラ2と瞳孔中心とを結ぶ軸線A3に対して眼球EBの光軸L2が傾きθだけ傾いた場合には、画像における瞳孔EPの形状は、楕円である。この楕円の長径Lと短径Lは下記式(2),(3)により示される。
長径L=A1 …(2)
短径L=A1・cos(θ) …(3)
ここで、楕円度Rを定義する。画像における瞳孔EPの形状が楕円であるとき、楕円度Rは長径Lと短径Lとにより示される(下記式(4)参照)。
楕円度=長径L/短径L …(4)
そして、式(2)~(4)によれば、傾きθは式(5)により示される。この傾きθは、カメラ2と瞳孔中心とを通る直線と光軸L2とのなす角θの大きさ|θ|に対応する。
θ=cos-1(短径L/長径L)=cos-1(1/楕円度) …(5)
図8は、光学系4から見た眼球EBを示す。例えば、瞳孔Paは、対象者Aが光学系4を見ているときの様子を示す。瞳孔Pbは、対象者Aが光学系4よりも上方を見ているときの様子を示す。その他の瞳孔Pcは、対象者Aが光学系4とは別の位置を見ているときの様子をそれぞれ示す。矢印Dは、視線の方向を示す。図8に示されるように、視線の方向(矢印D)の向きによって、瞳孔EPの形状を示す楕円の短軸方向が変化する。短軸方向は、世界座標系の水平軸X’に対する視線の方向(矢印D)の傾きφにより示される。
上記の原理を利用して、視線検出部19Aは、特徴点検出部17によって楕円フィッティングにより特定された顔画像上の2つの瞳孔EPの形状を基に、それぞれの形状の楕円度及び楕円の短軸の方向を算出する。そして、視線検出部19Aは、楕円度の逆数の逆余弦成分(傾きθ)と、短軸の方向(傾きφ)とを得ることにより、傾き角θと傾きφとにより特定される視線ベクトルPTを、2つの眼球を対象に算出する。このとき、視線検出部19Aは、視線ベクトルPTの始点を顔姿勢検出部18によって検出される眼球の回転中心Eの三次元位置に設定する。
なお、瞳孔形状法によって得られる算出結果は、光軸L2の方向である。従って、上記の算出方法では、光軸L2が視線に対応すると仮定されている。視軸(瞳孔中心の位置P及び中心窩をとおる軸)と光軸L2(眼球光学系の対称軸)との間にはずれがある。従って、瞳孔形状法によって得られる結果を較正すれば、瞳孔検出装置の出力結果を実際の視線に近づけることができる。視線検出部19Aは、視軸に対する光軸L2のずれを示すずれ角θを導入する。すなわち、視線検出部19Aは、下記式(6)により傾きθを較正して較正後の傾きθSaを算出することもできる。
θSa=θ-θ …(6)
上記式(6)において、傾きθSaは、視軸を示す視線ベクトルに対応する。ずれ角θは、視軸に対する光軸L2のずれを示すベクトルである。ずれ角θは、ずれ角θの大きさ|θ|と傾きφとにより定義され、θ=(|θ|,φ)として示される。
特徴点検出部17Aは、視線検出部19Aによって算出された視線ベクトルの方向を基に、2つの眼球の回転中心Eの二次元位置を算出する。詳細には、特徴点検出部17Aは、直前の画像フレームの顔画像を対象に顔姿勢検出部18によって算出された眼球の回転中心Eの三次元座標を基に、カルマンフィルタ等の等速運動モデルを用いた推定手法を用いて処理対象の画像フレームにおける眼球の回転中心Eの三次元座標を推定する。次に、特徴点検出部17Aは、第1実施形態の視線検出部19と同様にして、瞳孔中心Pの三次元位置を算出する。このとき、特徴点検出部17Aは、顔画像上に角膜反射像が現れない場合を想定して光学系4と瞳孔中心Pとを結ぶ直線と眼球の光軸L2との成す角θが30度程度とし、カメラ2から見て瞳孔中心Pは眼球の回転中心Eの手前の所定距離(例えば、9.4mm×cos30°=8.1mm)に位置すると仮定して瞳孔中心Pの三次元位置を算出する。さらに、特徴点検出部17Aは、算出した瞳孔中心Pの三次元位置を示す位置ベクトルWと、視線検出部19Aによって瞳孔形状法を用いて算出された眼球の光軸L2の方向を示す単位ベクトルWとを基に、下記式(7)によって眼球の回転中心Eの三次元位置を示す位置ベクトルWを算出する。
=W-κ・W …(7)
上記式(7)中、κは、予め設定された瞳孔中心Pと回転中心Eとの間の距離を示す数値である。そして、特徴点検出部17Aは、求めた眼球の回転中心Eの三次元位置をカメラ2のピンホールモデルを用いて顔画像上の二次元位置に変換する。同様の手順で、特徴点検出部17は、2つの眼球の回転中心Eの二次元位置を算出する。算出した2つの眼球の回転中心Eの二次元位置は、処理対象の画像フレームにおける顔姿勢検出部18による顔姿勢の検出に用いられる。
以上説明した第2実施形態の瞳孔検出装置によれば、対象者Aの頭部の変則的な動きに対して、瞳孔位置および視線を比較的正確に検出することができる。第1実施形態の瞳孔検出装置では顔画像に現れた瞳孔像と角膜反射像との両方を利用して瞳孔位置を検出していたが、鼻孔像を検出するためにカメラ2を対象者Aの正面の下方(正面から下方30度)に設置する場合、対象者Aが正面より上方を見ると角度θが30度を超えるため、対象者Aによっては角膜反射が出現しなくなる。その一方で、カメラ2から観察される瞳孔の楕円度は高くなり、視線の角度変化に対する楕円度の変化割合が高くなり、その結果瞳孔形状法を利用した際の角度θの検出分解能が高くなる。同時に、楕円度が増すと短軸の方向も高精度に求まるようになる。その結果、対象者Aがカメラ2の方向から離れた方向を見る際には、第2実施形態の瞳孔形状法を用いることにより、瞳孔位置および視線検出の精度が上昇する。
[第3実施形態]
次に、第3実施形態にかかる瞳孔検出装置の構成について説明する。図9は、第3実施形態の瞳孔検出装置を構成する画像処理装置1Bの機能構成を示すブロック図である。同図に示す画像処理装置1Bと第1実施形態にかかる画像処理装置1とでは、検出ユニット13に含まれる特徴点検出部17B、視線検出部19Bの機能が異なっている。
すなわち、視線検出部19Bは、第1実施形態の視線検出部19と同様にして瞳孔-角膜反射法を用いて視線ベクトルを算出する機能を有する処理部22aと、第2実施形態の視線検出部19Aと同様にして瞳孔形状法を用いて視線ベクトルを算出する機能を有する処理部22bと有し、最終的に処理部22aの処理結果と処理部22bの処理結果とを加味して視線ベクトルを算出する。例えば、両方の処理部の処理結果の平均値を算出したり、両方の処理部の処理結果を重み付け加算して視線ベクトルを算出する。また、視線検出部19Bは、処理部22aと処理部22bとの処理結果のいずれかを選択して用いることにより視線ベクトルを算出してもよい。例えば、計算される瞳孔形状の楕円度が所定の値以上の場合は処理部22bの処理結果が選択され、瞳孔形状の楕円度が所定の値未満の場合は処理部22aの処理結果が選択される。
特徴点検出部17Bは、第1実施形態の特徴点検出部17と同様にして2つの眼球の回転中心Eの二次元位置を算出する処理部21aと、第2実施形態と同様にして2つの瞳孔中心Pの三次元位置及び2つの眼球の回転中心Eの二次元位置を算出する処理部21bとを有し、2つの処理部21a,21bの処理結果が加味されて利用されてもよい。例えば、顔姿勢検出部18は、処理部21aによる処理結果を用いて算出した2つの瞳孔中心Pの三次元位置と、処理部21bによって算出された2つの瞳孔中心Pの三次元位置とを加味して、最終的な2つの瞳孔中心Pの三次元位置を算出する。例えば、両方の処理結果の平均値を算出したり、両方の処理結果を重み付け加算して瞳孔中心Pの三次元位置を算出する。また、顔姿勢検出部18は、処理部21aと処理部21bとの処理結果のいずれかを選択して用いることにより瞳孔中心Pの三次元位置又は顔姿勢を求めてもよい。例えば、視線検出部19Bにおいて計算される瞳孔形状の楕円度が所定の値以上の場合は処理部21bの処理結果が選択され、瞳孔形状の楕円度が所定の値未満の場合は処理部21aの処理結果が選択される。
以上の第3実施形態にかかる瞳孔検出装置によれば、角膜反射像の二次元位置を利用した算出結果と画像上で検出された瞳孔像に関する楕円度を利用した算出結果を加味することにより、より高精度の瞳孔位置検出および視線検出が実現される。また、角膜反射像の二次元位置を利用した算出結果と画像上で検出された瞳孔像に関する楕円度を利用した算出結果を選択して用いることにより、より高精度の瞳孔位置検出および視線検出が実現される。
本発明は、上述した実施形態に限定されるものではない。上記実施形態においては下記の構成に変更されてもよい。
例えば、上述した各実施形態における顔姿勢検出部18による顔姿勢の検出は、本発明者による特許第4501003号に記載の方法を用いて、両眼と右鼻孔とからなる平面の法線の方向と、両眼と左鼻孔とからなる平面の法線の方向とを検出することによって行われてもよい。さらに、顔姿勢検出部18による顔姿勢の検出においては、両眼と鼻孔の追尾性を良くするために、顔姿勢を利用した差分位置補正法および特徴点追跡の方法(本発明者による特許第5429885号に記載の方法)を用いてもよい。
対象者Aの両眼を対象にして、第1実施形態における特徴点検出部17、顔姿勢検出部18、及び視線検出部19による瞳孔の三次元位置及び視線ベクトルの算出方法と、第2実施形態における特徴点検出部17A、顔姿勢検出部18、及び視線検出部19Aによる瞳孔の三次元位置及び視線ベクトルの算出方法とが、同時に別々に使用されてもよい。
また、第2実施形態にかかる特徴点検出部17Aにおける瞳孔中心Pの三次元位置の算出は、視線検出部19Bによって算出された光軸L2の方向を基に行ってもよい。具体的には、特徴点検出部17Aは、光軸L2の方向に沿って回転中心Eから手前の所定距離にある平面を設定し、その平面と、顔画像から得られるカメラ2のピンホールと瞳孔中心Pとを通る直線と、の交点を求め、その交点を瞳孔中心Pの三次元位置として算出してもよい。
第3実施形態の画像処理装置1Bでは、対象者Aの一方の眼に関してのみ角膜反射の画像上の位置が検出され、他方の眼の角膜反射の位置が検出されなかった場合、処理部22aの処理結果を優先して視線ベクトルを決定してもよい。例えば、一方の眼に関して処理部22aによって検出された視線ベクトルのみを用いて視線ベクトルを算出してもよいし、処理部22aによる処理結果に対する重み付けを大きくして視線ベクトルを算出してもよい。
また、第3実施形態の視線検出部19Bは、瞳孔形状法を用いて視線ベクトルを算出する際には、次のようにして、視線ベクトルがカメラ2に対して右方向を向いているか左方向を向いているかを判定してもよい。つまり、瞳孔形状法を単に用いた場合には対象者Aがカメラに対してどちらの方向を向いているかは判別できないため、下記の方法により視線ベクトルの方向を判定する。
図10及び図11は、光学系4に対する対象者Aの状態を示す平面図である。図10の(a)部は、光学系4に対して対象者Aが光学系4に向かってやや右方向を見ている場合を示している。この場合、対象者Aの頭部の回転は少ないため、視線検出部19Bは瞳孔-角膜反射法を用いて視線ベクトルを検出できる。また、図10の(b)部は、対象者Aがカメラ2の右側に視線を移した場合を示しているが、この場合角度θが大きいため角膜反射像が現れない。そこで、視線検出部19Bは瞳孔形状法を用いて視線ベクトルを検出することになるが、対象者Aがカメラ2の右側を見ているか左側を見ているかは瞳孔形状からは判別できない。しかし、対象者Aが意図的に視線を移さない限り、図10の(c)部に示すように、視線ベクトルDPTだけでなく顔方向DPも右方向に回転する。図11の(a)部には、対象者Aが光学系4に対して比較的大きく左側を見た場合を示しており、この場合視線検出部19Bは瞳孔形状法を用いて視線ベクトルを検出する。この場合は、視線ベクトルDPTだけでなく顔方向DPも左方向に回転する。この傾向を利用して、視線検出部19Bは、視線ベクトルを求める際には、顔姿勢検出部18によって検出された顔方向を参照することにより、右方向を向いているか左方向を向いているかを判定する。具体的には、視線検出部19Bは、角度θの絶対値が30度を超えている場合には、顔方向DPが左方向に所定角度Th以上傾いている場合には視線ベクトルが左方向に傾いているものとして視線ベクトルを算出し、顔方向DPが右方向に所定角度Th以上傾いている場合には視線ベクトルが右方向に傾いているものとして視線ベクトルを算出する。ここで、閾値としての角度Thは、5度程度に設定される。この際、対象者Aの正面方向は、本発明者による特許第5004099号に記載の方法を利用して較正してもよい。すなわち、2つの眼球の回転中心と鼻孔間中点からなる三角形の法線と顔正面は上下に大きくずれているのが一般的であるため、それらの間のずれ角度を較正値として求め、その較正値を利用して顔方向を較正する。
なお、図11の(b)部に示す状態のように、対象者Aの頭部は比較的大きく左側を見ているにもかかわらず眼部の光軸はむしろ頭部方向より右側を向いている場合のように、対象者Aがどこか1点を見ながら頭部を回転させることが起こりうる。しかし、この場合は角度θが小さく、瞳孔-角膜反射法を用いて視線ベクトルを検出できるため問題はない。図11の(c)部に示す状態では、図11の(b)部に示す状態よりも対象者Aがさらに右側を見ているケースを想定しているが、顔方向に対ししてこのように大きく右方向に視線を向けることは不自然であるだけでなく、この状態でさえも角度θが30度以下であるため瞳孔-角膜反射法を用いて視線ベクトルを検出できるため問題はない。
上述した視線検出部19Bによる視線ベクトルの方向の判定方法は、光学系4を中心とした左右方向だけでなく、光学系4を中心とした点対称のその他の方向(例えば、上下方向)に応用してもよい。
また、上述した第1~第3の実施形態の瞳孔検出装置においては、予め光学系4を少なくとも2系統で複数系統備えていてもよい。この複数系統の光学系4のうちの2系統の光学系4の組み合わせは予めカメラ較正がされてステレオマッチングによる対象物の三次元計測が可能とされている。例えば、対象者Aの存在範囲の中心位置から見て左右に15度の方向に配置された2つの光学系4を備えてもよい。左右の両方向に45度の範囲で撮像可能な光学系を2系統備えれば、例えば、全体で水平方向の120度の範囲で対象者Aが撮像可能となる。このような瞳孔検出装置の画像処理装置1,1A,1Bでは、予め対象者Aを中心位置において2つの光学系4に正対するように位置させた状態で、2つの光学系4から出力された画像を基に、ステレオマッチングにより、対象者Aの2つの瞳孔中心及び鼻孔中心(または、2つの鼻孔中心間の中点)の三次元位置を計測することができる。そして、画像処理装置1,1A,1Bは、計測した対象者Aの2つの瞳孔中心及び鼻孔中心の三次元位置を基に、2つの瞳孔中心間の距離(第1の距離)と、2つの瞳孔中心と鼻孔中心との間の距離(第2の距離)とを計算しておく。その後、画像処理装置1,1A,1Bは、それらの距離を基に、上述した第1~第3の実施形態に記載の方法により、対象者Aの瞳孔の三次元位置、顔姿勢、顔位置、視線ベクトル、及び注視点を検出することができる。このとき、計算する第2の距離としては、2つの瞳孔中心のそれぞれと鼻孔中心との間の距離であってもよいし、2つの瞳孔中心を結ぶ直線と鼻孔中心との間の距離であってもよい。このような瞳孔検出装置によれば、広い角度範囲に位置する対象者Aを対象にして顔方向及び視線方向を検出することができる。また、2つの光学系4の組み合わせが複数組配置された瞳孔検出装置によれば、さらに広い角度範囲で顔方向及び視線方向を検出することができる。
1,1A,1B…画像処理装置,2…カメラ(撮像装置)、3a,3b…光源(照明装置)、4…光学系(光学システム)、10…瞳孔検出装置、13…検出ユニット(処理部)、17,17A,17B…特徴点検出部(回転中心算出部、瞳孔位置算出部)、18…顔姿勢検出部(瞳孔位置算出部)、19,19A,19B…視線検出部(瞳孔位置算出部)、21a,22a…処理部(第1の処理部)、21b,22b…処理部(第2の処理部)、A…対象者、C…角膜球中心、CB…角膜球、Cr…角膜反射中心、E…眼球回転中心、EB…眼球、EP…瞳孔、P…瞳孔中心。

Claims (4)

  1. 対象者の顔を撮像する撮像装置と前記顔を照明する照明装置とを含む光学システムと、
    前記撮像装置によって出力された画像を基に前記対象者の2つの瞳孔の三次元位置を算出する処理部と、
    を備え、
    前記処理部は、
    前記画像上で検出した前記2つの瞳孔のそれぞれの位置と、前記2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に、前記対象者の2つの眼球のそれぞれの光軸の画像上の方向と、前記2つの眼球のそれぞれの光軸の画像上の位置とを特定し、前記2つの眼球のそれぞれの光軸の画像上の方向と、前記2つの眼球のそれぞれの光軸の画像上の位置とを基に、前記対象者の2つの眼球のそれぞれの回転中心の前記画像上の位置を算出する回転中心算出部と、
    前記2つの眼球の回転中心の前記画像上の位置と、前記対象者の鼻孔の画像上の位置とを基に、前記2つの眼球の回転中心の三次元位置を算出し、前記2つの眼球の回転中心の三次元位置と、前記2つの瞳孔の画像上の位置とを基に、前記2つの瞳孔の三次元位置を算出する瞳孔位置算出部と、を有し、
    前記瞳孔位置算出部は、前記2つの眼球のそれぞれにおいて、前記眼球の回転中心の三次元位置から所定の距離に位置する平面であり、前記撮像装置の光軸に略垂直な平面のうち、前記撮像装置に近い側に位置する平面を設定し、前記2つの眼球のそれぞれにおいて、前記瞳孔の画像上の位置を基に、前記撮像装置の中心と前記瞳孔の三次元位置とを通る直線を導出し、前記2つの眼球のそれぞれにおいて、前記平面と前記直線との交点を導出し、該交点を前記瞳孔の三次元位置として算出し、
    前記直線は、前記撮像装置の中心と、前記撮像装置の中心から前記撮像装置の焦点距離ほど離れて配置された前記画像上の前記瞳孔の二次元位置とを通る三次元的直線である、
    瞳孔検出装置。
  2. 前記瞳孔位置算出部は、前記2つの眼球の回転中心の前記画像上の位置と、前記対象者の鼻孔の画像上の位置とを基に、前記2つの眼球の回転中心の三次元位置と前記鼻孔の三次元位置とを算出することにより、前記対象者の顔方向を検出する、
    請求項1に記載の瞳孔検出装置。
  3. 前記光学システムを少なくとも2系統備え、
    前記処理部は、少なくとも2系統の前記光学システムから出力された画像を基に、前記2つの瞳孔の間の第1の距離、及び前記瞳孔と前記鼻孔との間の第2の距離とを計測し、前記第1の距離及び第2の距離とを用いて、前記2つの瞳孔の三次元位置を算出する、
    請求項1又は2に記載の瞳孔検出装置。
  4. 対象者の顔を照明装置によって照明しながら前記顔を撮像装置によって撮像するステップと、
    前記撮像装置によって出力された画像を基に前記対象者の2つの瞳孔の三次元位置を算出するステップと、
    を備え、
    前記三次元位置を算出するステップは、
    前記画像上で検出した前記2つの瞳孔のそれぞれの位置と、前記2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に、前記対象者の2つの眼球のそれぞれの光軸の画像上の方向と、前記2つの眼球のそれぞれの光軸の画像上の位置とを特定し、前記2つの眼球のそれぞれの光軸の画像上の方向と、前記2つの眼球のそれぞれの光軸の画像上の位置とを基に、前記対象者の2つの眼球のそれぞれの回転中心の前記画像上の位置を算出するステップと、
    前記2つの眼球の回転中心の前記画像上の位置と、前記対象者の鼻孔の画像上の位置とを基に、前記2つの眼球の回転中心の三次元位置を算出し、前記2つの眼球の回転中心の三次元位置と、前記2つの瞳孔の画像上の位置とを基に、前記2つの瞳孔の三次元位置を算出するステップと、を有し、
    前記2つの瞳孔の三次元位置を算出するステップでは、前記2つの眼球のそれぞれにおいて、前記眼球の回転中心の三次元位置から所定の距離に位置する平面であり、前記撮像装置の光軸に略垂直な平面のうち、前記撮像装置に近い側に位置する平面を設定し、前記2つの眼球のそれぞれにおいて、前記瞳孔の画像上の位置を基に、前記撮像装置の中心と前記瞳孔の三次元位置とを通る直線を導出し、前記2つの眼球のそれぞれにおいて、前記平面と前記直線との交点を導出し、該交点を前記瞳孔の三次元位置として算出し、
    前記2つの瞳孔の三次元位置を算出するステップにおいて、前記直線は、前記撮像装置の中心と、前記撮像装置の中心から前記撮像装置の焦点距離ほど離れて配置された前記画像上の前記瞳孔の二次元位置とを通る三次元的直線である、
    瞳孔検出方法。
JP2016245664A 2016-12-19 2016-12-19 瞳孔検出装置及び瞳孔検出方法 Active JP7030317B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016245664A JP7030317B2 (ja) 2016-12-19 2016-12-19 瞳孔検出装置及び瞳孔検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245664A JP7030317B2 (ja) 2016-12-19 2016-12-19 瞳孔検出装置及び瞳孔検出方法

Publications (2)

Publication Number Publication Date
JP2018099174A JP2018099174A (ja) 2018-06-28
JP7030317B2 true JP7030317B2 (ja) 2022-03-07

Family

ID=62714795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245664A Active JP7030317B2 (ja) 2016-12-19 2016-12-19 瞳孔検出装置及び瞳孔検出方法

Country Status (1)

Country Link
JP (1) JP7030317B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7198023B2 (ja) * 2018-09-27 2022-12-28 株式会社アイシン 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム
KR20200134022A (ko) * 2019-05-21 2020-12-01 (의) 삼성의료재단 3d 심도 카메라를 이용한 안구 돌출 측정 장치, 방법 및 시스템
KR102293824B1 (ko) * 2019-05-21 2021-08-24 (의) 삼성의료재단 이동통신 단말기에서의 안면 인식을 이용한 관련 질환 모니터링 방법 및 시스템
WO2023277548A1 (ko) 2021-06-30 2023-01-05 주식회사 타이로스코프 안구의 돌출도 분석을 위한 측면 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체
WO2023277589A1 (ko) 2021-06-30 2023-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
KR102477699B1 (ko) * 2022-06-28 2022-12-14 주식회사 타이로스코프 안구의 돌출도 분석을 위한 측면 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체
WO2023277622A1 (ko) 2021-06-30 2023-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167152A (ja) 2002-11-22 2004-06-17 National Institute Of Advanced Industrial & Technology 視線位置計測における頭部の動きのズレを補正する方法及びシステム
JP2008102902A (ja) 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2013252301A (ja) 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc 眼球中心推定装置及びプログラム
JP2016106668A (ja) 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224637A (ja) * 1988-11-16 1990-09-06 A T R Tsushin Syst Kenkyusho:Kk 視線検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167152A (ja) 2002-11-22 2004-06-17 National Institute Of Advanced Industrial & Technology 視線位置計測における頭部の動きのズレを補正する方法及びシステム
JP2008102902A (ja) 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2013252301A (ja) 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc 眼球中心推定装置及びプログラム
JP2016106668A (ja) 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2018099174A (ja) 2018-06-28

Similar Documents

Publication Publication Date Title
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP6902075B2 (ja) 構造化光を用いた視線追跡
US11867978B2 (en) Method and device for determining parameters for spectacle fitting
US11468640B2 (en) Depth plane selection for multi-depth plane display systems by user categorization
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US20200372678A1 (en) Systems and techniques for estimating eye pose
JP6631951B2 (ja) 視線検出装置及び視線検出方法
US11422620B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
US11269181B2 (en) Systems and methods for operating a head-mounted display system based on user identity
US20240077943A1 (en) Eye center of rotation determination with one or more eye tracking cameras
US20220100268A1 (en) Eye tracking device and a method thereof
US11624907B2 (en) Method and device for eye metric acquisition
JPH0351407B2 (ja)
JP7046347B2 (ja) 画像処理装置及び画像処理方法
JP6555707B2 (ja) 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
Borsato et al. Episcleral surface tracking: challenges and possibilities for using mice sensors for wearable eye tracking
JP2017102731A (ja) 視線検出装置及び視線検出方法
CN111587397B (zh) 图像生成装置、眼镜片选择系统、图像生成方法以及程序
JP2015123262A (ja) 角膜表面反射画像を利用した視線計測方法及びその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220215

R150 Certificate of patent or registration of utility model

Ref document number: 7030317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150