JP5163982B2 - 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ - Google Patents

視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ Download PDF

Info

Publication number
JP5163982B2
JP5163982B2 JP2008156229A JP2008156229A JP5163982B2 JP 5163982 B2 JP5163982 B2 JP 5163982B2 JP 2008156229 A JP2008156229 A JP 2008156229A JP 2008156229 A JP2008156229 A JP 2008156229A JP 5163982 B2 JP5163982 B2 JP 5163982B2
Authority
JP
Japan
Prior art keywords
eyeball
optical axis
deviation
axis
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008156229A
Other languages
English (en)
Other versions
JP2009297323A (ja
Inventor
隆 長松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe University NUC
Original Assignee
Kobe University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe University NUC filed Critical Kobe University NUC
Priority to JP2008156229A priority Critical patent/JP5163982B2/ja
Publication of JP2009297323A publication Critical patent/JP2009297323A/ja
Application granted granted Critical
Publication of JP5163982B2 publication Critical patent/JP5163982B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、視線を計測する視線計測装置に関し、特に、実際に視線計測を行う前に行われるキャリブレーションを行わずに視線計測を行うものに関する。
従来、コンピュータを操作するためのインターフェースの一種として視線インターフェースがある。この視線インターフェースは、利用者の視線をデータとして検出し、検出された視線データを用いてコンピュータの画面上のアイコンなどを操作するものである。
視線インターフェースにおいては、利用者の眼球に赤外線を照射して眼球を撮影し、撮影した画像の角膜表面における赤外線の反射光と瞳孔との距離から算出される方向データを利用者の推定視線データとして検出する技術が用いられている。
この技術により算出される推定視線データと、実際の利用者の実視線データとの間には、利用者ごとに異なる誤差が生じる。誤差が生じる原因には、眼球形状の個人差、角膜表面での光の屈折、中心窩の位置に関する個人差など様々な要素がある。
そこで、実視線データに対する推定視線データの誤差を補正するために、利用者別の補正用パラメータを予め算出しておき、算出された推定視線データをこの補正用パラメータで補正するキャリブレーションと呼ばれる処理が行われる。
キャリブレーション処理は、予め定められた複数のマーカを利用者に順に注視させ、それぞれのマーカが注視されたときの推定視線データを検出し、検出された推定視線データと眼球から各マーカへの実際の方向データとの差から算出される補正用パラメータを用いることにより行われる。
キャリブレーション処理を行うことにより、利用者の実際の視線により近い方向データを視線データとして検出することが可能になる。
しかし、精度の高い視線データを検出するためには、補正用パラメータを生成する際に利用者に5点から20点程のマーカを注視させる必要があり、利用者の負担が大きかった。
そこで、特許文献1における視線検出装置では、赤外線カメラ等を用いてキャリブレーション処理を1点のマーカにまで減少させる技術が記載されている。
特開2007−136000号公報
しかしながら、特許文献1の視線検出装置には、以下のような改善すべき点がある。特許文献1の視線計測装置では、注視するマーカを減少させてはいるが、依然としてキャリブレーション処理が必要となる、という改善すべき点がある。また、被験者が変わる毎にキャリブレーションを行わなければならない、という改善すべき点がある。
そこで、本発明は、実際に視線計測を行う前に行われるキャリブレーションを行わずに視線計測を行うことができる視線計測装置を提供する。
本発明者は、様々な検討を重ねた結果、本発明に係る視線計測装置を完成した。本発明における課題を解決するための手段及び発明の効果を以下に示す。
本発明に係る視線計測装置、視線計測プログラム、及び視線計測方法では、所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得し、前記眼球画像から、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出し、a)ある時刻において、a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、a3)算出した視軸を用いて、前記画面との交点を算出し、a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、b)他の時刻において、b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、c)さらに、c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出する。
これにより、特定の点を注視するキャリブレーションをせずに視線計測を行うことができる。
本発明に係る視線計測装置は、所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、前記眼球画像から、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、算出した前記光軸を利用して、当該光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段、前記光軸と前記視軸との間のずれに基づき、前記光軸をずらして前記視軸を求め、被験者の前記画面上での注視点を前記画面と前記視軸の交点として算出する注視点算出手段を有する。
これにより、光軸と視軸との間のずれを考慮した上での視線計測を行うことができる。
本発明に係る視線計測装置は、ある時刻において、一の眼球及び他の一の眼球それぞれの光軸と視軸との間のずれ候補の初期値を設定し、他の時刻において、前記一の眼球及び前記他の一の眼球について、当該他の時刻において算出した光軸及び前記ある時刻において設定した前記ずれ候補を用いて評価値を算出し、新たなずれ候補を設定するということを繰り返し、前記評価値を用いて、算出したずれ候補から一の眼球及び他の一の眼球それぞれの光軸と視軸との間の最適なずれを決定する。
これにより、ある時刻及び他の時刻という異なる時刻でのずれ算出処理を実行することによって、最適なずれを決定することができるので、精度よく注視点を算出することができる。
本発明に係る視線計測装置では、所定の範囲内に存在する全ての前記新たなずれ候補を算出する。
これにより、ずれ候補を算出する範囲を限定できるので、効率よく最適なずれを算出することができる。
本発明に係る視線計測装置は、a)ある時刻において、a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、a3)算出した視軸を用いて、前記画面との交点を算出し、a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、b)他の時刻において、b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、c)さらに、c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断する。
これにより、最適なずれを算出することができるので、精度よく注視点を算出することができる。
本発明に係る視線計測装置では、左右の眼球について算出した前記光軸のそれぞれと前記画面との交点の中点を注視点として算出する。これにより、簡単な計算でキャリブレーションなしでの視線計測の計測精度を光軸を視線と近似した場合から向上できる。
本発明に係る視線計測装置では、前記光軸と前記視軸のずれを用いて、前記注視点を算出する。特定の点を注視するキャリブレーションをせずに精度の良い視線計測を行うことができる。
本発明に係る視線計測装置では、角膜の曲率半径が一定となる領域である曲率半径一定領域に形成される第1プルキニエ像を用いて前記角膜の前記曲率中心位置を算出する。これにより、精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記角膜の中心部を前記曲率半径一定領域とする。これにより、容易にさらに精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記第1プルキニエ像を用いて、前記眼球の前記光軸を算出する。これにより、容易にさらに精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記曲率半径一定領域に形成される前記第1プルキニエ像を、複数、用いる。これにより、容易に精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記曲率半径一定領域に形成される複数の前記第1プルキニエ像のうち、前記眼球の瞳孔中心に近い二つの前記第1プルキニエ像を用いる。これにより、容易に精度良い視線計測を行うことができる。
本発明に係る視線計測装置に用いる視線計測装置用ディスプレイでは、眼球に光を照射する光源手段であって、眼球における前記光源の反射像が互いに分離したものとなるように前記光源手段がディスプレイの外縁部に複数配置され、角膜の曲率半径一定領域に複数の第1プルキニエ像を形成させている。これにより、角膜の曲率半径一定領域に容易に複数の第1プルキニエ像を形成することが可能となる。
本発明に係るディスプレイでは、前記ディスプレイの外縁部に複数の光源手段を有する。これにより、角膜の曲率半径一定領域に容易に第1プルキニエ像を形成することが可能となる。
本発明に係るディスプレイでは、前記光源手段は、少なくとも前記ディスプレイの上縁部、右縁部及び左縁部に設けられる。これにより、角膜の曲率半径一定領域に容易に第1プルキニエ像を形成することが可能となる。
本発明に係るディスプレイでは、前記視線計測装置の被験者の眼球画像を取得する撮影手段を有する。これにより、容易に眼球画像を取得することができる。
本発明に係るディスプレイでは、前記撮影手段は、前記ディスプレイの下縁部に設けられる。これにより、眼球画像を下側から取得することができることから、目を少し閉じた状態や目の細い人の眼球も撮影することができる。
以下、本発明の実施形態について、図面を参照しながら詳細に説明していく。
1.視線計測装置の概要
本発明に係る視線計測装置の概要について、図1に示す機能ブロック図を用いて説明する。視線計測装置M1は、 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段M11、前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段M13、前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段M15、前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段M17、前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段M19、及び、算出した前記光軸を利用して、当該光軸と中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段M21、前記光軸と前記視軸との間のずれに基づき、被験者の前記画面上での注視点を算出する注視点算出手段M23、を有している。
ずれ算出手段M21は、a)ある時刻において、a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、a3)算出した視軸を用いて、前記画面との交点を算出し、a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、b)他の時刻において、b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、c)さらに、c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断する。
注視点算出手段M23は、前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記注視点を算出する。
これにより、視線計測装置M1は、特定の点を注視するキャリブレーションをせずに視線計測を行うことができる。
2.視線計測装置21のハードウェア構成
視線計測装置21のハードウェア構成を図2に基づき説明する。視線計測装置21は、CPU211、メモリ212、ハードディスク213、キーボード214、マウス215、ディスプレイ216a、216b、光学式ドライブ217、LED218及びカメラ219を備えている。
CPU211は、ハードディスク213に記録されているオペレーティング・システム(OS)、視線計測プログラム等その他のアプリケーションに基づいた処理を行う。メモリ212は、CPU211に対して作業領域を提供する。ハードディスク213は、オペレーティング・システム(OS)、視線計測プログラム等その他のアプリケーション、及び視線計測の結果得られた計測データを記録保持する。
キーボード214、マウス215は、外部からの命令を受け付ける。ディスプレイ216aは、視線を計測する被験者に見てもらう画像を表示する。ディスプレイ216bは、ステレオカメラ219C0、219C1で撮像した被験者の眼球画像を、視線計測装置21の使用者の確認のために表示する。光学式ドライブ217は、光学式メディア210から視線計測プログラム等のデータを読み取る。
LED218は、視線計測装置21によって視線を計測する被験者に対して、光を照射する。なお、本実施例においては、三つのLED218L0、218L1、218L2を用いている。カメラ219は、被験者の眼球画像を撮影する。なお、カメラ219は、ステレオカメラ219C0、219C1により構成されている。LED218及びカメラ219の配置位置については後述する。
3.ディスプレイ216a、LED218、カメラ219の配置
CPU211が実行する第1プルキニエ像抽出処理は、光軸を推定する際に発生する誤差を減少させることを目的として実行する。ここで、光軸を推定する際に誤差が発生する理由について説明する。
光軸を推定する際に誤差が発生しやすいのは、光源からの光が角膜の周辺部で反射し、第1プルキニエ像が角膜の周辺部に発生する場合である。一般に、角膜の中心部はほぼ球形、つまり真球に近い形状であるが、周辺部になると曲率半径が変化する傾向がある例えば、図3Aに示すように、角膜が真球であると仮定すれば位置Aiで光源からの入射光が反射し、反射した位置Aiに円状の第1プルキニエ像が発生する。しかし、実際には、角膜は真球ではないため、位置Aiより少し外側の位置Arに第1プルキニエ像が発生する。
さらに、図3Bに示すように、角膜をはずれて強膜(白目)部分PSで光源からの光が反射した場合、強膜内に反射像Ar’が発生する。ここで、図5(後述)に示す眼球モデルを使用する場合、角膜についてモデル化を行うため、強膜の曲率半径は角膜とは大きく異なることから、強膜での反射像は利用できない。なお、強膜は粗い表面を持っているため、反射像Ar’は、円形状ではなく、いびつな形状となる。
このような角膜形状の問題、角膜外での反射の問題を防ぐために、できるだけ眼球画像における角膜の中心部で光源からの入射光が反射するように、LED218L0〜218L2を図4のように設置することとした。LED218L0はディスプレイ216aに向かって右側のフレームに接する位置に、LED218L1はディスプレイ216aに向かって左側のフレームに接する位置に、LED218L2はディスプレイ216aの上側のフレームに接する位置に、それぞれ配置される。このように、ディスプレイ216aと近接した位置に光源であるLED218L0〜218L2を配置することによって、被験者がディスプレイ216aのフレームに近い部分を見たときでも、眼球画像における角膜の中心に近い位置で反射する光源を二つ確保することができる。したがって、光源に基づく第1プルキニエ像を眼球画像における角膜の中心付近に発生させることができる。
また、ディスプレイ216の下部には、ステレオカメラ219C0、219C1が配置される。このように、ディスプレイ216の下部にステレオカメラ219C0、219C1を配置することによって、目が半分閉じたような場合や目が細い人にも対応することができる。
4.眼球のモデル
本発明における視線計測装置21では、視線計測を容易に行うために、眼球についてのモデル(眼球モデル)を設定している。本発明で用いる眼球モデルを図5を用いて説明する。
眼球は、眼球の壁の最外層を構成する外膜を有している。外膜は、眼球の外層である眼球線維膜の前1/6の部分を形成する角膜C及び眼球の外層である眼球線維膜の後ろ5/6の部分を形成する強膜Sにより形成されている。
眼球モデルでは、眼球を、二つの球g1、g2が組み合わさった形状に近似している。角膜Cは、小さい球g1の一部によって近似する。また、強膜Sは、大きい球g2の一部によって近似する。
角膜Cの曲率中心Aに、レンズ(水晶体)Lの中心があると仮定する。また、外部から入射した光は角膜Cの曲率中心Aを通るものと仮定する。
角膜の曲率中心Aと瞳孔Pの瞳孔中心Bとを結ぶ軸を光軸x1とする。また、中心窩Fと角膜Cの曲率中心Aとを結ぶ軸を視軸x2とする。視軸x2は視線とも呼ばれる。光軸x1と視軸x2とははずれており、両者は、角膜Cの曲率中心Aで交わるものと仮定する。
5.視線計測装置21の動作
視線計測装置21のCPU211の動作を図6に示すフローチャートを用いて説明する。CPU211は、ステレオカメラ219C0、219C1で撮影した眼球画像を取得する(S501)。CPU211は、光軸算出処理として、ステップS503〜S513の処理を実行する。なお、光軸算出処理としては、ステップS503〜S513の処理だけでなく、種々の方法が存在する。
CPU211は、取得した眼球画像に対して楕円フィッティングを実行し、眼球画像上から判断される瞳孔中心(画像瞳孔中心)の座標を算出する(S503)。
そして、CPU211は、第1プルキニエ像抽出処理を実行する(S505)。CPU211は、第1プルキニエ像抽出処理によって、眼球画像上において、画像瞳孔中心位置に近い二つの第1プルキニエ像の位置を算出する。なお、第1プルキニエ像抽出処理については後述する。
次に、CPU211は、角膜の曲率中心の位置ベクトルA(以下、曲率中心位置ベクトルA)を算出する(S507)。角膜の曲率中心位置ベクトルAの算出方法の概要を図7を用いて説明する。ステップS505で算出した第1プルキニエ像の一つに対応するLED(光源i)、ステップS501で取得した眼球画像を撮影したカメラ(カメラj)の光学中心の位置ベクトルCj、眼球画像が記録されるカメラjのイメージセンサが形成する画像平面上の第1プルキニエ像の位置ベクトルP’ji、及び、角膜の曲率中心位置ベクトルAは、同一平面(以下、平面Mとする)内に存在する。このことから、平面Mは、法線ベクトルが(P’ji−C)×(L−C)で、カメラjの光学中心(位置ベクトルCj)を通る平面となる。よって、平面Mは、以下の式(1)により算出する。
なお、光源iの位置ベクトルをLi、カメラjの光学中心の位置ベクトルをC、カメラの画像平面上の第1プルキニエ像の位置ベクトルをP’ji、及び、角膜の曲率中心の位置ベクトルをAと、それぞれする。(1)式を満たすx=(x,y,z)の集合が平面Mを形成する。
ここで、光源iの位置Lはあらかじめ計測し、焦点距離、画像平面の中心位置、レンズひずみ係数等の内部パラメータ、及び、カメラの位置、向き等の外部パラメータはカメラキャリブレーションにより事前に算出して、ハードディスク213にあらかじめ記憶しておく。
ステップS505で算出した第1プルキニエ像に対応するLEDが二つ、及び、カメラが二つ存在することから、四つの平面Mを算出することができる。したがって、四つの平面Mの交点として、角膜の曲率中心の位置Aを算出することができる。
図6に戻って、CPU211は、ステップS507において角膜の曲率中心位置Aを算出すると、角膜の曲率半径rを算出する(S509)。角膜の曲率半径rの算出方法の概要を図7を用いて説明する。角膜の曲率半径rを算出するために、まず、光源iから出た光が角膜表面で反射する点の位置ベクトルPjiを算出する。点Pjiは、APjiとCjiの交点として算出する。
APjiは、tをパラメータとして、以下の式(2)として表すことができる。
jiは、以下の式(3)として表すことができる。
角膜の曲率半径rは、式(2)、式(3)の交点として算出した点の位置ベクトルPjiと角膜曲率中心の位置ベクトルAとの距離として以下の式(4)により算出する。
図6に戻って、CPU211は、ステップS509において角膜の曲率半径rを算出すると、実際の瞳孔の中心(瞳孔中心)Bの座標を算出する(S511)。瞳孔中心Bの座標算出方法の概要を図8を用いて説明する。一般的に、カメラで撮影した眼球画像上で観察できる画像瞳孔中心は、角膜表面での光の屈折があるため、実際の瞳孔中心の位置ベクトルBとは異なる。
ここで、瞳孔中心の位置ベクトルBに対応する角膜表面上の点の位置ベクトルB’’を検出することは非常に難しい瞳孔中心 は、ステップS503でフィッティングした楕円の中心と近似することから、B’’は、以下のカメラへの入射光を表す直線(式(5))と角膜表面を表す球(式(6))との交点として算出する。
点B’’における屈折は、スネルの法則を用いて、以下の式(7)のように表すことができる。
ここで、νは入射ベクトルを、nは点B’’における角膜表面に対する接平面の法線ベクトルを、ρは屈折率の比を、それぞれ表す。また、ν、n及びρは、それぞれ以下の式(8)、(9)及び(10)で表すことができる。
ここで、nは空気の屈折率、nは実効屈折率≒1.3375である。
以上より、カメラから瞳孔中心に向かう光線が角膜表面で屈折し、瞳孔中心Bへ向かう直線の式は、以下の式(11)で表すことができる。
ここで、カメラ219C0から出た光線に対応する瞳孔中心Bへ向かう直線の式は、以下の式(12)で表すことができる。
また、カメラ219C1から出た光線に対応する瞳孔中心Bへ向かう直線の式は、以下の式(13)で表すことができる。
瞳孔中心の位置ベクトルBは、これら式(12)、式(13)の直線の交点として算出することができる。
図6に戻って、CPU211は、算出した角膜曲率中心A及び瞳孔中心Bを用いて、角膜曲率中心A及び瞳孔中心Bを結ぶ軸(光軸)を、以下の式(14)により算出する(S513)。
さらに、CPU211は、注視点算出処理を実行する(S515)。CPU211は、注視点算出処理によって、被験者が実際にディスプレイ216を見ている注視点を算出する。なお、注視点算出処理については後述する。
CPU211は、ステップS501〜ステップS515までの処理を視線計測装置21の動作が終了するまで繰り返し実行する(S517)。
6.第1プルキニエ像抽出処理
CPU211が実行する第1プルキニエ像抽出処理は、光軸を推定する際に発生する誤差を減少させることを目的として実行する。第1プルキニエ像抽出においては、図4に示すステレオカメラ219C0、219C1によって撮影される眼球画像に表示されるLED218L0〜218L2の三つの反射像のうち、画像瞳孔中心に近いものを二つ選択する。これにより、より球状に近い部分での反射像のみを用いて、光軸を計算することができる。
CPU211が実行する第1プルキニエ像抽出処理を図9に示すフローチャートを用いて説明する。以下においては、図6に示すステップS501において、図10に示すような眼球画像が得られたものとする。
CPU211は、眼球画像に基づいて、反射像の位置を算出する(S901)。CPU211は、算出した反射像の位置に基づき、画像瞳孔中心に近い二つの反射像を選択する(S903)。
CPU211は、選択した二つの反射像と光源となったLEDとの対応関係を判断する(S905)。以下においては、ステップS901で算出した反射像の位置から、x座標の値の小さいものをC、大きいものを、Cとする。CPU211は、反射像とLEDとの対応関係を判断するにあたって、以下の式(15)を用いて角度θを算出する。
ここで、y=(0,1)である。
そして、CPU211は、算出したθとLED218L0、218L1、218L2との対応関係は以下の表のように判断する。
7.注視点算出処理
CPU211は、実際の眼球における視軸と光軸とのずれを修正するために、注視点算出処理を実行する。CPU211が実行する注視点算出処理の概要を説明する。図11に示すように、一般的に、人が実際に見ている点と、左右の目の光軸とディスプレイとの交点とは一致しない。そこで、ディスプレイ上で人が注視している点(注視点)を、「ディスプレイと左目の光軸との交点」および「ディスプレイと右目の光軸との交点」の中点と推定することとする。なぜならば、左右の目で光軸と視軸のずれは逆方向であり、また、左右の目の水平方向のずれの大きさが等しければ、中点では水平方向の誤差は、ほぼ0°となるからである。
ここで、視軸と光軸のなす角は、日本人の場合、一般的に、水平方向で3.5°〜7.5°(平均5.5°)、垂直方向で0.25°〜3°(平均1°)となる。なお、視軸とは、眼球のレンズ中心(角膜曲率中心Aにほぼ等しい)と中心窩Fを通る線(図5参照)であり、ディスプレイ上で人が実際に見ている点(注視点)と角膜曲率中心とを結ぶ線と同じものである。
CPU211が実行する注視点算出処理を図12に示すフローチャートを用いて説明する。CPU211は、以下の式(16)を用いて左目に関する光軸を、式(17)を用いて右目に関する光軸を、それぞれ算出する(S1201)。なお、tはパラメータ、A、B、A、Bは、ステップS507、S511(図6参照)において算出した、左右の目のそれぞれについての角膜曲率中心位置ベクトルと瞳孔中心位置ベクトルである。
CPU211は、算出した光軸と、ディスプレイとの交点を算出する(S1203)。なお、ディスプレイは以下の式(18)により表すことができる。
ここで、nはディスプレイの法線ベクトルを、DTLはディスプレイの左上の位置を示す位置ベクトルを、それぞれ示している。なお、nは、以下の式(19)により算出する。
ここで、DTLはディスプレイの左上の位置を示すベクトルを、DBRはディスプレイの右下の位置を示すベクトルを、DTRはディスプレイの右上の位置を示すベクトルを、DBLはディスプレイの左下の位置を示すベクトルを、それぞれ表す。なお、DTL、DBR、DTR、DBLはあらかじめ計測し、ハードディスク213へ記憶しておく。
そして、CPU211は、左右、両眼について算出した交点に基づき、その中点を算出し(S1205)、注視点とする(S1207)。
前述の実施例1においては、注視点算出処理において実際の眼球における視軸と光軸とのずれを修正するにあたって、統計的な視軸と光軸とのずれの値を用いた。本実施例における視線計測装置は、光軸と視軸のずれを算出することにより、より精度の高い推定を行う。
なお、本実施例における視線計測装置21’は、実施例1における視線計測装置21と同様の構成を有しており、また、注視点算出処理を除き同様の処理を実行する。したがって、以下においては、実施例1とは異なる注視点算出処理を中心に説明する。また、実施例1と同様の構成については、同様の番号を用いる。
1.視線計測の概要
図5に示すモデルで考えると、右目の視軸と左目の視軸の交点が注視点となる。したがって、右目、左目、それぞれの視軸を算出することができれば、注視点を算出することができる。しかしながら、視軸を直接的に算出することは難しい。一方、光軸については、実施例1の式(1)〜式(14)用いて算出することが可能である。そこで、本実施例においては、光軸の算出に加えて、光軸と視軸とのずれを算出することによって視軸を算出し、さらに注視点を算出する。
中心窩と角膜曲率中心とを結ぶ軸である視軸と瞳孔中心と角膜曲率中心とを結ぶ軸である光軸とは、角膜曲率中心で交差する。ここで、光軸と視軸のずれを変数を使って表すと2つの変数で表すことができる。例えば、光軸と視軸の交点を原点として光軸を基準に考えると、視軸は光軸に垂直な平面上の点と原点を結ぶ直線になる。平面上の点は、2変数によって表すことができる。よって、α、βを光軸と視軸のずれを表す変数に設定する。α、βを用いて視軸ベクトルcを計算する関数をgとすると、視軸ベクトルcを以下の式(20)で表すことができる。
式(20)で表した視軸ベクトルcを用いると、視軸は、以下の式(21)で表すことができる。
式(21)を用いると、視軸と数式により規定された所定の面との交点D=(D,D)を算出することも可能となる。なお、モデル化上の誤差、計算誤差等を除けば、交点Dは注視点と一致する。
以上の考え方を、時刻t=t0において、被験者がある点を見ている場合に適用する。
このとき、右目についての視軸−光軸間のずれと所定の面の交点Dとの関係は、以下の式(22)及び式(23)で表すことができる。
ここで、fRx、fRyは、それぞれ、視軸−光軸間のずれを表す値α、βから、右目に関する所定の面との交点D=(DRx,DRy)を算出する関数を表している。
左目についても、右目と同様に、視軸−光軸間のずれと所定の面の交点Dとの関係は、以下の式(24)及び式(25)で表すことができる。
次に、時刻t=t0から時間が経過して、時刻t=t1において、被験者が時刻t=t0に見ていた点とは異なる点を見ている場合に適用する。この場合、以下の式(26)〜式(29)が得られる。
したがって、t=t0Rxt=t0Ryt=t0Lxt=t0Lyt=t1Rxt=t1Ryt=t1Lxt=t1Lyが分かっていれば、前述の式(22)〜式(29)を用いて連立方程式を立てると、式が8つで、未知数がα、β、α、βt=t0Rxt=t0Ryt=t1Rxt=t1Ryの8つとなる。よって、右目の光軸−視軸間のずれ(α,β)、左目の光軸−視軸間のずれ(α,β)を算出できる。
なお、時刻t=t1以降の時刻tにおいては、既にα、β、α、βは既知となっている。よって、式(20)を用いて右目の視軸ベクトルc、及び、左目の視軸ベクトルcを算出し、さらに、式(21)を用いて右目の視軸及び左目の視軸を算出する。算出した右目及び左目の視軸から交点を算出できる。算出した交点が注視点となる。
2.視線計測装置21’の動作
式(22)〜式(29)におけるfRx、fRyなどについては、単純に水平面からの回転、垂直面からの回転によって処理するもの等、さまざまなものが考えられる。本実施例において、直接、fRx、fRyなどを求めた上で、式(22)〜式(29)に基づく連立方程式をたてて、解を求めることは難しい。そこで、視線計測装置21’では、fRx、fRyなどを求めずに、式(22)〜式(29)に基づく連立方程式を満たす解を求める。
視線計測装置21’のCPU211の動作を図14に示すフローチャートを用いて説明する。CPU211は、右目についての光軸と視軸との間のずれを表す値α、β及び左目についての光軸と視軸との間のずれを表す値α、βを算出するずれ算出処理を実行する(S1401)。ずれ算出処理は、一連の視線計測装置21’において一度だけ実施される。
CPU211は、算出した値α、β、α、βを用いて、注視点を算出する注視点算出処理を実行する(S1403)。注視点算出処理は、ずれ算出処理の終了後、所定時間間隔で繰り返し、視線計測装置21’の動作が終了するまで繰り返し実行される。
以下において、ずれ算出処理(S1401)、及び、注視点算出処理(S1403)を詳細に説明する。
2.1.ずれ算出処理
視線計測装置21’のCPU211は、一連の動作において、ずれ算出処理を最初に1回だけ実行し、 右目についての光軸と視軸との間のずれを表す値α、β及び左目についての光軸と視軸との間のずれを表す値α、βを算出する。ずれ算出処理を図15に示すフローチャートを用いて説明する。説明に当たっては、図16に示す図も適宜参照する。
視線計測装置21’のCPU211は、時刻t=t0において、一方の目、例えば、右目についてステップS501〜S513(図6参照)を実行し、右目の光軸(図16A:ベクトルd)を算出する(S1501)。CPU211は、右目の光軸に対する視軸のずれを表す値α、βの候補(以下、ずれ候補とする。)として初期値α(0)、β(0)を、当該ずれが水平方向で3.5°〜7.5°、垂直方向で0.25°〜3°の範囲に収まるように適当な値を一つ設定する(S1503)。なお、値α(0)、β(0)は、どのような座標系で、どのような変数をとっても良いが、ずれを垂直方向、水平方向、それぞれの角度に換算すると、前述の範囲に収まる値を取るものとする。ここで、算出した右目の光軸、及び、設定したずれ候補値α(0)、β(0)を用いて「A)第1のずれ算出処理」を実行する(S1505)。これにより、左目の光軸に対する視軸のずれを表す値α、βのずれ候補としての初期値α(0)、β(0)を算出する。
CPU211は、時刻t=t1において、右目についてステップS501〜S513(図6参照)を実行し、右目の光軸(図16B:ベクトルd)を算出する(S1507)。CPU211は、算出した右目の光軸、及び、ステップS1503で設定した右目のずれ候補値α(0)、β(0)を用いて、右目について、後述の「B)交点算出処理」を実行する(S1509)。これにより、右目についての視軸(図16B:ベクトルc)を算出し、視軸とディスプレイとの交点D(0)を算出する。
CPU211は、時刻t=t1において、左目についてステップS501〜S513(図6参照)を実行し、左目の光軸(図16B:ベクトルd)を算出する(S1511)。CPU211は、算出した左目の光軸、及び、ステップS1505で算出した左目のずれ候補値α(0)、β(0)を用いて、左目について、後述の「B)交点算出処理」を実行する(S1513)。これにより、左目についての視軸(図16B:ベクトルc)を算出し、視軸とディスプレイとの交点D(0)を算出する。
そして、CPU211は、右目の交点D(0)と左目の交点D(0)との間の距離ε(0)を以下の式(30)を用いて算出する(S1515)。
CPU211は、ずれ候補値αR(n)、βR(n)を所定の値δだけずらしながら、新たにずれ候補値αR(n+1)、βR(n+1)を設定する(S1517)。CPU211は、下記の表2の範囲に属するαR(n+1)、βR(n+1)について網羅的に、ステップS1505〜ステップS1515までの処理を実行し、距離ε(n)を算出する(S1519)。値δとしては、例えばずれを角度換算すると0.1°に相当する値を設定する。なお、αR(n+1)、βR(n+1)を抽出する方法については、下記表2の範囲において網羅的に抽出できるものであれば、例示のものに限定されない。値δの大きさは、最終的に算出する注視点の精度に影響するものであり、求める精度によって値δの大きさを設定すればよい。また、例えば、ランダムにαR(n+1)、βR(n+1)を抽出するようにしてもよい。
CPU211は、ステップS1519において表2の範囲内の全てのずれ候補値αR(n)、βR(n)について距離ε(n)の算出が終了したと判断すると、これまでに算出した距離ε(0)〜ε(n)を評価値として、その中で値が最小となるずれ候補値αR(n)、βR(n)を抽出する(S1521)。CPU211は、抽出したずれ候補値αR(n)、βR(n)を求めるべき右目のずれαR、βRであると判断する(S1523)。CPU211は、右目のαR、βRに対応する左目のずれ候補値α(n)、β(n)を抽出し(S1525)、求めるべき左目のα、βであると判断する(S1527)。
A)第1のずれ算出処理
第1のずれ算出処理は、一方の目の光軸−視軸間のずれから、他方の目の光軸−視軸間のずれを算出する処理である。ここでは、右目の光軸−視軸間のずれから、左目の光軸−視軸間のずれを算出する。第1のずれ算出処理を図17に示すフローチャートを用いて説明する。
CPU211は、右目の光軸−視軸間のずれを代表する値α、βが既知であるとすると、後述の「B)交点算出処理」を実行する(S1601)。これにより、右目の視軸とディスプレイとの交点D=(D,D,D)を算出できる。なお、ディスプレイは、前述の式(18)により算出できる。
次に、CPU211は、左目について、後述の「C)第2のずれ算出処理」を実行する(S1603)。この処理により、左目で交点D=(D,D,D)を見ているときの、左目のずれα、βを算出できる。
B)交点算出処理
交点算出処理は、光軸と視軸のずれが分かっているときに、式(1)から式(14)により求めた光軸から視軸を計算し、視軸と所定の面との交点を算出する処理である。
光軸と視軸とのずれを表すα、βを用いて、視軸方向の単位ベクトルc(視軸ベクトルc)を算出することができる。視軸ベクトルcを算出する方法は複数考えられるが、例として、リスティングの法則に基づいた算出方法を後述する。
視軸ベクトルcを算出できれば、視線は式(21)で表すことができる。一方、ディスプレイについては、式(18)式で表すことができる。よって、式(21)及び式(18)を用いて、視軸とディスプレイとの交点Dを算出することができる。
C) 第2のずれ算出処理
第2のずれ算出処理は、一方の目について、ディスプレイと視軸との交点が既知である時に、その交点を注視点と仮定して、他方の目について、光軸と視軸のずれを求める処理である。
他方の目の角膜曲率中心A及び光軸は、式(1)〜式(14)式により算出できる。注視点Dが分かっている場合、他方の目の視軸方向の単位ベクトルc(視軸ベクトルc)は、以下の式(31)で表すことができる。
よって、視軸は、以下の式(32)により表すことができる。
光軸は、光軸方向の単位ベクトルd(光軸ベクトルd)を用いて以下の式(33)で表すことができる。
他方の目について、視軸ベクトルcと光軸ベクトルdが求まったので、光軸と視軸のずれα、βを算出することができる。
リスティングの法則を用いた第2のずれ算出処理を後述する。
2.2.注視点算出処理
視線計測装置21’のCPU211がずれ算出処理の後に実行する注視点算出処理について、図18に示すフローチャートを用いて説明する。
CPU211は、所定の時刻において、右目についてステップS501〜S513(図6参照)を実行し、右目の光軸を算出する(S1701)。CPU211は、ステップS1523で判断した右目についてのずれの値α、βを用いて、右目についての視軸を算出する(S1703)。右目の視軸を算出するにあたっては、右目の視軸ベクトルc、ステップS507で算出した右の角膜の曲率中心位置Aを用いると、x=A+tcと表すことができる。
CPU211は、左目についてステップS501〜S513(図6参照)を実行し、左目の光軸を算出する(S1705)。CPU211は、ステップS1527で判断した左目についてのずれの値α、βを用いて、左目についての視軸を算出する(S1707)。左目の視軸を算出するにあたっても、右目と同様に、左目の視軸ベクトルc、ステップS507で算出した左の角膜の曲率中心位置Aを用いると、x=A+tcと表すことができる。
CPU211は、右目の視軸と左の視軸の交点Dを注視点として算出する(S1709)。
CPU211は、ステップS1701〜ステップS1709までの処理を動作の終了まで繰り返す(S1711)。
以上のように、本実施例に係る視線計測装置では、既知の点を意図して注視することなく、個人依存のパラメータであるずれの値α、β、α、βを求めることができ、キャリブレーションを必要とせず、精度良く視線計測を行うことができる。
3.リスティングの法則に基づくB)交点算出処理、C)第2のずれ算出処理
3.1.リスティングの法則
以下において、リスティングの法則について説明する。眼球は、その動作において実行可能な全ての動作をするわけではなく、通常は、ある一定の法則に従って動作している。この一定の法則をリスティングの法則という。リスティングの法則は、眼の回転運動と眼位に関する法則であり、「(a)眼球の任意の眼位は、第1眼位から単一の回転で到達できる位置しかとらず、そして、(b)その回転の回転軸は、第1眼位の視軸方向に垂直な平面(リスティング平面)内に存在する」という眼球動作に関する法則をいう。なお、第1眼位は、リスティングの法則を満たす頭部に対する相対的な目の位置であり、およそまっすぐ立ったときに水平に真正面を見たときの方向となる。
3.2.リスティングの法則に基づく視軸と光軸の関係
眼球動作前の第1眼位及び動作後の眼位における視軸と光軸との関係を図13Aに示す。なお、動作後の眼位には、第1眼位から縦または横に眼球が回転した時の眼球の位置(第2眼位)及び第1眼位から縦または横への回転以外の回転をした時の眼球の位置(第3眼位)を含む。図13Aでは、第1眼位における視軸の単位方向ベクトル(第1視軸ベクトル)をa、第1眼位における光軸の単位方向ベクトル(第1光軸ベクトル)をb、眼球動作後の眼位における視軸の単位方向ベクトル(第2視軸ベクトル)をc、眼球動作後の眼位における光軸の単位方向ベクトル(第2光軸ベクトル)をdとしている。
第1視軸ベクトルaは、人がおおよそ真っ直ぐ立って正面を見た時の向きのベクトルである。第1視軸ベクトルaは、頭部の位置とともに変動するベクトルであるため、頭部の位置を画像処理または3次元センサー等で計測し、あらかじめ算出しておく。
次に、リスティングの法則に基づく第1眼位及び動作後の眼位における視軸と光軸との関係を図13Bに示す。図13Bでは、図13Aにおける各ベクトルa、b、c、dを移動して、始点を一カ所に集め、回転の関係が分かりやすくなるようにしている。図13Bでは、第1眼位から動作後の眼位まで眼球が直接的に動作する際の回転軸をlとしている。眼球が、第1眼位から角度ψだけ回転動作し動作後の眼位に到達すると、第1視軸ベクトルaは角度ψだけ回転移動し第2視軸ベクトルcとなり、第1光軸ベクトルbは角度ψだけ回転移動し第2光軸ベクトルdとなる。この際、回転軸lは、第1視軸ベクトルaに垂直なリスティング平面に存在する。より詳細には、回転軸lは、第1視軸ベクトルa及び第2視軸ベクトルcに垂直となる。
3.3.リスティングの法則に基づく処理
以下で説明するリスティングの法則に基づくB)交点算出処理及びC)第2のずれ算出処理では、座標系として第1視軸ベクトルaを基準にした座標系を用いる。ここでは、個人依存のパラメータである光軸と視軸のずれを表す値α、βは、第1光軸ベクトルbを表す二つの変数である。なお、第1光軸ベクトルbは3次元空間のベクトルであるため、X軸の値(x)、Y軸の値(y)、Z軸の値(z)の三変数で表すことができるが、第1光軸ベクトルbを単位ベクトルとすることによって、x+y+z=1の条件が付加されるので、x、yが分かればzも分かる。なお、zの符号は光軸ベクトルとの成す角度が小さくなる方である。よって、第1光軸ベクトルbを表す値α、βとして、x、yを用いればよい。
また、B)交点算出処理及びC)第2のずれ算出処理は、片目を対象として行われる処理である。
・B)交点算出処理について
CPU211が実行するリスティングの法則を用いた交点算出処理を図19に示すフローチャートを用いて説明する。なお、交点算出処理を実行する際には、光軸と視軸のずれを表す値α、βがステップS1503、S1505、S1517で既に設定されており、第1光軸ベクトルbが設定されている場合である。
CPU211は、ステップS507で算出した曲率中心位置A(図6参照)を取得する(S1901)。CPU211は、ステップS511で設定した瞳孔中心B(図6参照)を取得する(S1903)。CPU211は、ステップS513(図6参照)おいて算出した光軸に基づき、第2光軸ベクトルdを以下の式(34)により算出する(S1905)。
そして、CPU211は、第1光軸ベクトルb及び第2光軸ベクトルdから、回転軸lと回転角度ψを、それぞれ、以下の式(35)、式(36)を用いて算出する(S1907)。
CPU211は、第2視軸ベクトルcを、第1視軸ベクトルaを回転軸lを中心に角度ψだけ回転させることによって算出する(S1909)。第2視軸ベクトルcの算出には、クォータニオンを用いる。ここで、第1視軸ベクトルaをクォータニオンを用いて表すと、以下の式(37)となる。
また、回転軸lを中心にした角度ψの回転をクォータニオンを用いて表すと、以下の式(38)となる。
なお、第1視軸ベクトルa=(a,a,a)、回転軸ベクトルl=(l,l,l)とする。
したがって、第2視軸ベクトルcは、クォータニオンを用いて以下の式(39)として表すことができる。
よって、第2視軸ベクトルcは、以下の式(40)として表すことができる。
以上より、CPU211は、視軸を以下の式(41)として推定する(S1911)。
CPU211は、推定した視軸とディスプレイとの交点D=(D,D,D)を算出する(S1913)。なお、ディスプレイは、前述の式(18)により算出できる。
・C)第2のずれ算出処理について
CPU211が実行するリスティングの法則を用いた第2のずれ算出処理を図20に示すフローチャートを用いて説明する。第2のずれ算出処理では、一方の目についてのB)交点算出処理により得られたディスプレイとの交点D=(D,D,D)が、他方の目についての視軸とディスプレイとの交点Dとなる、つまり、右目、左目の両目で交点Dを見ていると仮定して、他方の目に関する光軸−視軸間のずれα、β、つまり第1光軸ベクトルbを算出する。以下においては、B)交点算出処理によって第1光軸ベクトルbを算出した目とは異なる目について実行する処理であるため、各ベクトルを表す記号にはプライム記号(’)を付している。
CPU211は、ステップS507で算出した曲率中心位置Aを取得する(S2001)。CPU211は、ステップS1913で算出した交点Dを取得する(S2003)。
CPU211は、第2視軸ベクトルc’を、以下の式(42)で算出する(S2005)。
また、CPU211は、第2光軸ベクトルd’を、以下の式(43)で算出する(S2007)。
CPU211は、図13Bより、他方の目の回転軸ベクトルl’は以下の式(44)で、回転角ψ’は以下の式(45)で、それぞれ算出する(S2009)。
CPU211は、第1光軸ベクトルb’を、第2光軸ベクトルd’を回転軸l’を中心に角度(−ψ’)だけ回転させることによって算出する(S2011)。
第2光軸ベクトルd’をクォータニオンを用いて表すと、以下の式(46)となる。
また、回転軸l’を中心にした角度(−ψ’)の回転をクォータニオンを用いて表すと、以下の式(47)となる。
なお、第2光軸ベクトルd’=(d’,d’,d’)、回転軸ベクトルl’=(l’,l’,l’)とする。
以上より、第1光軸ベクトルb’は、クォータニオンを用いて以下の式(48)として表すことができる。
よって、第1光軸ベクトルb’は、以下の式(49)として表すことができる。
本発明は、人の視線を計測するための視線計測装置に用いることができる。
本発明に係る視線計測装置21の概要を説明する図である。 本発明に係る視線計測装置21のハードウェア構成を示す図である。 光軸を推定する際に誤差が発生する理由について説明するための図である。 ディスプレイ216、LED218、カメラ219の配置を示す図である。 本発明で用いる眼球モデルを示す図である。 視線計測装置21のCPU211の動作を示すフローチャートである。 角膜の曲率半径rの算出方法の概要を説明する図である。 瞳孔中心Bの座標算出方法の概要を説明するための図である。 第1プルキニエ像抽出処理を示すフローチャートである。 眼球画像の一例を示す図である。 注視点算出処理の概要を説明するための図である。 注視点算出処理を示すフローチャートである。 第1眼位及び動作後の第2眼位における視軸と光軸との関係を説明する図である。 実施例2における視線計測装置21’の動作を示すフローチャートである。 ずれ算出処理を示すフローチャートである。 視軸推定処理及び視軸・注視点算出処理を説明するための図である。 第1のずれ算出処理を示すフローチャートである。 注視点算出処理を示すフローチャートである。 リスティングの法則を用いた交点算出処理を示すフローチャートである。 リスティングの法則を用いた第2のずれ算出処理を示すフローチャートである。
符号の説明
21・・・・・視線計測装置
21’・・・・・視線計測装置
216a・・・・・ディスプレイ
218L0・・・・・LED
218L1・・・・・LED
218L2・・・・・LED
219C0・・・・・ステレオカメラ
219C1・・・・・ステレオカメラ

Claims (18)

  1. 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
    前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
    前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
    前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
    前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
    算出した前記光軸を利用して、当該光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段、
    前記光軸と前記視軸との間のずれに基づき、被験者の前記画面上での注視点を算出する注視点算出手段、
    を有する視線計測装置であって、
    前記ずれ算出手段は、
    a)ある時刻において、
    a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
    a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
    a3)算出した視軸を用いて、前記画面との交点を算出し、
    a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
    b)他の時刻において、
    b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
    b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
    b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
    c)さらに、
    c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
    c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
    d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、
    前記注視点算出手段は、
    前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出すること、
    を特徴とする視線計測装置。
  2. 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
    前記眼球画像から、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
    算出した前記光軸を利用して、当該光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段、
    前記光軸と前記視軸との間のずれに基づき、前記光軸をずらして前記視軸を求め、被験者の前記画面上での注視点を前記画面と前記視軸の交点として算出する注視点算出手段、
    を有する視線計測装置。
  3. 請求項2に係る視線計測装置において、
    前記ずれ算出手段は、さらに、
    ある時刻において、一の眼球及び他の一の眼球それぞれの光軸と視軸との間のずれ候補の初期値を設定し、
    他の時刻において、前記一の眼球及び前記他の一の眼球について、当該他の時刻において算出した光軸及び前記ある時刻において設定した前記ずれ候補を用いて評価値を算出し、新たなずれ候補を設定するということを繰り返し、
    前記評価値を用いて、算出したずれ候補から一の眼球及び他の一の眼球それぞれの光軸と視軸との間の最適なずれを決定すること、
    を特徴とする視線計測装置。
  4. 請求項3に係る視線計測装置において、
    前記ずれ算出手段は、さらに、
    所定の範囲内に存在する全ての前記新たなずれ候補を算出すること、
    を特徴とする視線計測装置。
  5. 請求項4に係る視線計測装置において、
    前記ずれ算出手段は、さらに、
    a)ある時刻において、
    a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
    a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
    a3)算出した視軸を用いて、前記画面との交点を算出し、
    a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
    b)他の時刻において、
    b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
    b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
    b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
    c)さらに、
    c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
    c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
    d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断すること、
    を特徴とする視線計測装置。
  6. 請求項2〜5のいずれかに係る視線計測装置において、さらに、
    前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
    前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
    前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
    を有し、
    前記光軸算出手段は、
    前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出すること、
    を特徴とする視線計測装置。
  7. 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
    前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
    前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
    前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
    前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
    前記光軸算出手段を用いて、左右の眼球について算出した前記光軸のそれぞれと前記画面との交点の中点を注視点として算出する注視点算出手段、
    を有することを特徴とする視線計測装置。
  8. 請求項1,6,7のいずれかに係る視線計測装置において、
    前記角膜曲率中心位置算出手段は、さらに、
    角膜の曲率半径が一定となる領域である曲率半径一定領域に形成される第1プルキニエ像を用いて前記角膜の前記曲率中心位置を算出すること、
    を特徴とする視線計測装置。
  9. 請求項8に係る視線計測装置において、
    前記角膜曲率中心位置算出手段は、さらに、
    前記眼球画像における前記角膜の中心部を前記曲率半径一定領域とすること、
    を特徴とする視線計測装置。
  10. 請求項9に係る視線計測装置において、
    前記光軸算出手段は、さらに、
    前記第1プルキニエ像を用いて、前記眼球の前記光軸を算出すること、
    を特徴とする視線計測装置。
  11. 請求項7〜10に係る視線計測装置のいずれかにおいて、
    前記曲率半径一定領域に形成される前記第1プルキニエ像を、複数、用いること、
    を特徴とする視線計測装置。
  12. 請求項11に係る視線計測装置において、
    前記曲率半径一定領域に形成される複数の前記第1プルキニエ像のうち、前記眼球の瞳孔中心に近い二つの前記第1プルキニエ像を用いること、
    を特徴とする視線計測装置。
  13. コンピュータを、視線計測装置として機能させるための視線計測プログラムであって、
    前記プログラムは、コンピュータを、
    所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
    前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
    前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
    前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
    前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
    算出した前記光軸を利用して、当該光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段、
    前記光軸と前記視軸との間のずれに基づき、被験者の前記画面上での注視点を算出する注視点算出手段、
    を有する視線計測装置であって、
    前記ずれ算出手段は、
    a)ある時刻において、
    a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
    a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
    a3)算出した視軸を用いて、前記画面との交点を算出し、
    a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
    b)他の時刻において、
    b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
    b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
    b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
    c)さらに、
    c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
    c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
    d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、
    前記注視点算出手段は、
    前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出すること、
    を特徴とする視線計測装置として機能させること、
    を特徴とする視線計測プログラム。
  14. コンピュータを用いて視線を計測する視線計測方法であって、
    前記コンピュータは、
    所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得し、
    前記眼球画像から、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出し、
    a)ある時刻において、
    a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
    a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
    a3)算出した視軸を用いて、前記画面との交点を算出し、
    a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
    b)他の時刻において、
    b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
    b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
    b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
    c)さらに、
    c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
    c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
    d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、
    前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出すること、
    を特徴とする視線計測方法。
  15. 請求項11に係る視線計測装置に用いるディスプレイであって、
    眼球に光を照射する光源手段であって、眼球における前記光源の反射像が互いに分離したものとなるように前記光源手段が前記ディスプレイの外縁部に複数配置され、角膜の曲率半径一定領域に複数の第1プルキニエ像を形成させること、
    を特徴とする視線計測装置用ディスプレイ。
  16. 請求項15に係るディスプレイにおいて、
    前記光源手段は、
    少なくとも前記ディスプレイの上縁部、右縁部及び左縁部に設けられること、
    を特徴とする視線計測装置用ディスプレイ。
  17. 請求項15又は16に係るディスプレイにおいて、さらに、
    前記視線計測装置の被験者の眼球画像を取得する撮影手段を有すること、
    を特徴とする視線計測装置用ディスプレイ。
  18. 請求項17に係るディスプレイにおいて、
    前記撮影手段は、
    前記ディスプレイの下縁部に設けられること、
    を特徴とする視線計測装置用ディスプレイ。
JP2008156229A 2008-06-16 2008-06-16 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ Active JP5163982B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008156229A JP5163982B2 (ja) 2008-06-16 2008-06-16 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008156229A JP5163982B2 (ja) 2008-06-16 2008-06-16 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ

Publications (2)

Publication Number Publication Date
JP2009297323A JP2009297323A (ja) 2009-12-24
JP5163982B2 true JP5163982B2 (ja) 2013-03-13

Family

ID=41544841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008156229A Active JP5163982B2 (ja) 2008-06-16 2008-06-16 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ

Country Status (1)

Country Link
JP (1) JP5163982B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3413234A1 (en) 2017-06-09 2018-12-12 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, program, and method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5371051B2 (ja) * 2010-02-25 2013-12-18 国立大学法人神戸大学 視線計測装置、方法及びプログラム
WO2011153112A2 (en) * 2010-05-29 2011-12-08 Wenyu Jiang Systems, methods and apparatus for making and using eyeglasses with adaptive lens driven by gaze distance and low power gaze tracking
JP5858433B2 (ja) * 2010-12-08 2016-02-10 国立大学法人静岡大学 注視点検出方法及び注視点検出装置
JP5818233B2 (ja) * 2011-05-24 2015-11-18 国立大学法人神戸大学 視線計測装置および方法
JP6019721B2 (ja) * 2012-05-07 2016-11-02 株式会社ニコン 他覚式変位測定装置、及び他覚式変位測定方法
JP6210023B2 (ja) * 2013-11-28 2017-10-11 株式会社Jvcケンウッド 視線検出支援装置および視線検出支援方法
JP6324119B2 (ja) * 2014-03-04 2018-05-16 国立大学法人静岡大学 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
WO2016098406A1 (ja) 2014-12-17 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6909391B2 (ja) * 2015-12-01 2021-07-28 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
US10115205B2 (en) 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration
CN108780223B (zh) * 2016-03-11 2019-12-20 脸谱科技有限责任公司 用于生成眼睛模型的角膜球跟踪
JP6948688B2 (ja) * 2017-02-06 2021-10-13 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
JP7168953B2 (ja) * 2018-06-12 2022-11-10 国立大学法人神戸大学 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3289953B2 (ja) * 1991-05-31 2002-06-10 キヤノン株式会社 視線方向検出装置
JPH0761314B2 (ja) * 1991-10-07 1995-07-05 コナミ株式会社 網膜反射光量測定装置及び該装置を用いた視線検出装置
JPH07191796A (ja) * 1993-12-27 1995-07-28 Canon Inc 視線入力システム
JP3453911B2 (ja) * 1995-03-02 2003-10-06 富士ゼロックス株式会社 視線認識装置
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
JP4537901B2 (ja) * 2005-07-14 2010-09-08 日本放送協会 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム
JP4649319B2 (ja) * 2005-11-21 2011-03-09 日本電信電話株式会社 視線検出装置、視線検出方法、および視線検出プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3413234A1 (en) 2017-06-09 2018-12-12 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, program, and method
US10783663B2 (en) 2017-06-09 2020-09-22 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, computable readable medium, and method

Also Published As

Publication number Publication date
JP2009297323A (ja) 2009-12-24

Similar Documents

Publication Publication Date Title
JP5163982B2 (ja) 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
US9265414B2 (en) Methods and systems for measuring interpupillary distance
KR102056333B1 (ko) 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램
US9323075B2 (en) System for the measurement of the interpupillary distance using a device equipped with a screen and a camera
JP2010259605A (ja) 視線測定装置および視線測定プログラム
JP4232166B2 (ja) 眼鏡装着シミュレーション方法及び装置
US10758124B2 (en) Device and method for distance determination and/or centering using corneal reflections
JP2019194702A (ja) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法
JP7168953B2 (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
JP2013539073A (ja) 累進焦点眼鏡用レンズを選択する方法
JP2018099174A (ja) 瞳孔検出装置及び瞳孔検出方法
JP4536329B2 (ja) アイポイントの位置決定方法及びアイポイント測定システム
KR20200006621A (ko) 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램
JP2013190942A (ja) 視線誤差補正装置、そのプログラム及びその方法
JP5590487B2 (ja) 視線計測方法及び視線計測装置
JP5714951B2 (ja) 両眼瞳孔検査装置
JP2019098024A (ja) 画像処理装置及び画像処理方法
US20240061278A1 (en) Frame adjustment system
JP2013226397A (ja) 近業目的距離測定装置、並びに近業目的距離測定装置を用いた眼鏡レンズの製造方法及び製造システム
JP2003079577A (ja) 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体
JP2011172853A (ja) 視線計測装置、方法及びプログラム
CN110414302A (zh) 非接触式的瞳距测量方法及系统
JP2016057906A (ja) 視点位置の計測方法及び計測システム
EP4227731A1 (en) Method and mobile device for determining a visual point of a person

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5163982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250