JP5163982B2 - 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ - Google Patents
視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ Download PDFInfo
- Publication number
- JP5163982B2 JP5163982B2 JP2008156229A JP2008156229A JP5163982B2 JP 5163982 B2 JP5163982 B2 JP 5163982B2 JP 2008156229 A JP2008156229 A JP 2008156229A JP 2008156229 A JP2008156229 A JP 2008156229A JP 5163982 B2 JP5163982 B2 JP 5163982B2
- Authority
- JP
- Japan
- Prior art keywords
- eyeball
- optical axis
- deviation
- axis
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 title claims description 80
- 238000000691 measurement method Methods 0.000 title claims description 4
- 210000005252 bulbus oculi Anatomy 0.000 claims description 257
- 230000003287 optical effect Effects 0.000 claims description 228
- 230000000007 visual effect Effects 0.000 claims description 211
- 210000001508 eye Anatomy 0.000 claims description 142
- 238000004364 calculation method Methods 0.000 claims description 84
- 210000004087 cornea Anatomy 0.000 claims description 76
- 210000001747 pupil Anatomy 0.000 claims description 25
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims 1
- 230000001678 irradiating effect Effects 0.000 claims 1
- 239000013598 vector Substances 0.000 description 104
- 238000000034 method Methods 0.000 description 61
- 238000012545 processing Methods 0.000 description 39
- 230000014509 gene expression Effects 0.000 description 12
- 238000000605 extraction Methods 0.000 description 8
- 210000003786 sclera Anatomy 0.000 description 7
- 238000012937 correction Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 239000012528 membrane Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
Description
視線インターフェースにおいては、利用者の眼球に赤外線を照射して眼球を撮影し、撮影した画像の角膜表面における赤外線の反射光と瞳孔との距離から算出される方向データを利用者の推定視線データとして検出する技術が用いられている。
そこで、実視線データに対する推定視線データの誤差を補正するために、利用者別の補正用パラメータを予め算出しておき、算出された推定視線データをこの補正用パラメータで補正するキャリブレーションと呼ばれる処理が行われる。
キャリブレーション処理は、予め定められた複数のマーカを利用者に順に注視させ、それぞれのマーカが注視されたときの推定視線データを検出し、検出された推定視線データと眼球から各マーカへの実際の方向データとの差から算出される補正用パラメータを用いることにより行われる。
しかし、精度の高い視線データを検出するためには、補正用パラメータを生成する際に利用者に5点から20点程のマーカを注視させる必要があり、利用者の負担が大きかった。
そこで、特許文献1における視線検出装置では、赤外線カメラ等を用いてキャリブレーション処理を1点のマーカにまで減少させる技術が記載されている。
そこで、本発明は、実際に視線計測を行う前に行われるキャリブレーションを行わずに視線計測を行うことができる視線計測装置を提供する。
本発明に係る視線計測装置、視線計測プログラム、及び視線計測方法では、所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得し、前記眼球画像から、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出し、a)ある時刻において、a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、a3)算出した視軸を用いて、前記画面との交点を算出し、a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、b)他の時刻において、b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、c)さらに、c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出する。
これにより、特定の点を注視するキャリブレーションをせずに視線計測を行うことができる。
これにより、光軸と視軸との間のずれを考慮した上での視線計測を行うことができる。
これにより、ある時刻及び他の時刻という異なる時刻でのずれ算出処理を実行することによって、最適なずれを決定することができるので、精度よく注視点を算出することができる。
本発明に係る視線計測装置では、所定の範囲内に存在する全ての前記新たなずれ候補を算出する。
これにより、ずれ候補を算出する範囲を限定できるので、効率よく最適なずれを算出することができる。
これにより、最適なずれを算出することができるので、精度よく注視点を算出することができる。
本発明に係る視線計測装置では、前記光軸と前記視軸のずれを用いて、前記注視点を算出する。特定の点を注視するキャリブレーションをせずに精度の良い視線計測を行うことができる。
本発明に係る視線計測装置では、角膜の曲率半径が一定となる領域である曲率半径一定領域に形成される第1プルキニエ像を用いて前記角膜の前記曲率中心位置を算出する。これにより、精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記角膜の中心部を前記曲率半径一定領域とする。これにより、容易にさらに精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記第1プルキニエ像を用いて、前記眼球の前記光軸を算出する。これにより、容易にさらに精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記曲率半径一定領域に形成される前記第1プルキニエ像を、複数、用いる。これにより、容易に精度良い視線計測を行うことができる。
本発明に係る視線計測装置では、前記曲率半径一定領域に形成される複数の前記第1プルキニエ像のうち、前記眼球の瞳孔中心に近い二つの前記第1プルキニエ像を用いる。これにより、容易に精度良い視線計測を行うことができる。
本発明に係るディスプレイでは、前記ディスプレイの外縁部に複数の光源手段を有する。これにより、角膜の曲率半径一定領域に容易に第1プルキニエ像を形成することが可能となる。
本発明に係るディスプレイでは、前記光源手段は、少なくとも前記ディスプレイの上縁部、右縁部及び左縁部に設けられる。これにより、角膜の曲率半径一定領域に容易に第1プルキニエ像を形成することが可能となる。
本発明に係るディスプレイでは、前記視線計測装置の被験者の眼球画像を取得する撮影手段を有する。これにより、容易に眼球画像を取得することができる。
本発明に係るディスプレイでは、前記撮影手段は、前記ディスプレイの下縁部に設けられる。これにより、眼球画像を下側から取得することができることから、目を少し閉じた状態や目の細い人の眼球も撮影することができる。
本発明に係る視線計測装置の概要について、図1に示す機能ブロック図を用いて説明する。視線計測装置M1は、 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段M11、前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段M13、前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段M15、前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段M17、前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段M19、及び、算出した前記光軸を利用して、当該光軸と中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段M21、前記光軸と前記視軸との間のずれに基づき、被験者の前記画面上での注視点を算出する注視点算出手段M23、を有している。
注視点算出手段M23は、前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記注視点を算出する。
これにより、視線計測装置M1は、特定の点を注視するキャリブレーションをせずに視線計測を行うことができる。
視線計測装置21のハードウェア構成を図2に基づき説明する。視線計測装置21は、CPU211、メモリ212、ハードディスク213、キーボード214、マウス215、ディスプレイ216a、216b、光学式ドライブ217、LED218及びカメラ219を備えている。
CPU211は、ハードディスク213に記録されているオペレーティング・システム(OS)、視線計測プログラム等その他のアプリケーションに基づいた処理を行う。メモリ212は、CPU211に対して作業領域を提供する。ハードディスク213は、オペレーティング・システム(OS)、視線計測プログラム等その他のアプリケーション、及び視線計測の結果得られた計測データを記録保持する。
キーボード214、マウス215は、外部からの命令を受け付ける。ディスプレイ216aは、視線を計測する被験者に見てもらう画像を表示する。ディスプレイ216bは、ステレオカメラ219C0、219C1で撮像した被験者の眼球画像を、視線計測装置21の使用者の確認のために表示する。光学式ドライブ217は、光学式メディア210から視線計測プログラム等のデータを読み取る。
LED218は、視線計測装置21によって視線を計測する被験者に対して、光を照射する。なお、本実施例においては、三つのLED218L0、218L1、218L2を用いている。カメラ219は、被験者の眼球画像を撮影する。なお、カメラ219は、ステレオカメラ219C0、219C1により構成されている。LED218及びカメラ219の配置位置については後述する。
CPU211が実行する第1プルキニエ像抽出処理は、光軸を推定する際に発生する誤差を減少させることを目的として実行する。ここで、光軸を推定する際に誤差が発生する理由について説明する。
光軸を推定する際に誤差が発生しやすいのは、光源からの光が角膜の周辺部で反射し、第1プルキニエ像が角膜の周辺部に発生する場合である。一般に、角膜の中心部はほぼ球形、つまり真球に近い形状であるが、周辺部になると曲率半径が変化する傾向がある例えば、図3Aに示すように、角膜が真球であると仮定すれば位置Aiで光源からの入射光が反射し、反射した位置Aiに円状の第1プルキニエ像が発生する。しかし、実際には、角膜は真球ではないため、位置Aiより少し外側の位置Arに第1プルキニエ像が発生する。
このような角膜形状の問題、角膜外での反射の問題を防ぐために、できるだけ眼球画像における角膜の中心部で光源からの入射光が反射するように、LED218L0〜218L2を図4のように設置することとした。LED218L0はディスプレイ216aに向かって右側のフレームに接する位置に、LED218L1はディスプレイ216aに向かって左側のフレームに接する位置に、LED218L2はディスプレイ216aの上側のフレームに接する位置に、それぞれ配置される。このように、ディスプレイ216aと近接した位置に光源であるLED218L0〜218L2を配置することによって、被験者がディスプレイ216aのフレームに近い部分を見たときでも、眼球画像における角膜の中心に近い位置で反射する光源を二つ確保することができる。したがって、光源に基づく第1プルキニエ像を眼球画像における角膜の中心付近に発生させることができる。
また、ディスプレイ216の下部には、ステレオカメラ219C0、219C1が配置される。このように、ディスプレイ216の下部にステレオカメラ219C0、219C1を配置することによって、目が半分閉じたような場合や目が細い人にも対応することができる。
本発明における視線計測装置21では、視線計測を容易に行うために、眼球についてのモデル(眼球モデル)を設定している。本発明で用いる眼球モデルを図5を用いて説明する。
眼球は、眼球の壁の最外層を構成する外膜を有している。外膜は、眼球の外層である眼球線維膜の前1/6の部分を形成する角膜C及び眼球の外層である眼球線維膜の後ろ5/6の部分を形成する強膜Sにより形成されている。
眼球モデルでは、眼球を、二つの球g1、g2が組み合わさった形状に近似している。角膜Cは、小さい球g1の一部によって近似する。また、強膜Sは、大きい球g2の一部によって近似する。
角膜Cの曲率中心Aに、レンズ(水晶体)Lの中心があると仮定する。また、外部から入射した光は角膜Cの曲率中心Aを通るものと仮定する。
角膜の曲率中心Aと瞳孔Pの瞳孔中心Bとを結ぶ軸を光軸x1とする。また、中心窩Fと角膜Cの曲率中心Aとを結ぶ軸を視軸x2とする。視軸x2は視線とも呼ばれる。光軸x1と視軸x2とははずれており、両者は、角膜Cの曲率中心Aで交わるものと仮定する。
視線計測装置21のCPU211の動作を図6に示すフローチャートを用いて説明する。CPU211は、ステレオカメラ219C0、219C1で撮影した眼球画像を取得する(S501)。CPU211は、光軸算出処理として、ステップS503〜S513の処理を実行する。なお、光軸算出処理としては、ステップS503〜S513の処理だけでなく、種々の方法が存在する。
CPU211は、取得した眼球画像に対して楕円フィッティングを実行し、眼球画像上から判断される瞳孔中心(画像瞳孔中心)の座標を算出する(S503)。
そして、CPU211は、第1プルキニエ像抽出処理を実行する(S505)。CPU211は、第1プルキニエ像抽出処理によって、眼球画像上において、画像瞳孔中心位置に近い二つの第1プルキニエ像の位置を算出する。なお、第1プルキニエ像抽出処理については後述する。
ここで、光源iの位置Liはあらかじめ計測し、焦点距離、画像平面の中心位置、レンズひずみ係数等の内部パラメータ、及び、カメラの位置、向き等の外部パラメータはカメラキャリブレーションにより事前に算出して、ハードディスク213にあらかじめ記憶しておく。
ステップS505で算出した第1プルキニエ像に対応するLEDが二つ、及び、カメラが二つ存在することから、四つの平面Mを算出することができる。したがって、四つの平面Mの交点として、角膜の曲率中心の位置Aを算出することができる。
図6に戻って、CPU211は、ステップS507において角膜の曲率中心位置Aを算出すると、角膜の曲率半径rを算出する(S509)。角膜の曲率半径rの算出方法の概要を図7を用いて説明する。角膜の曲率半径rを算出するために、まず、光源iから出た光が角膜表面で反射する点の位置ベクトルPjiを算出する。点Pjiは、APjiとCjPjiの交点として算出する。
以上より、カメラから瞳孔中心に向かう光線が角膜表面で屈折し、瞳孔中心Bへ向かう直線の式は、以下の式(11)で表すことができる。
CPU211は、ステップS501〜ステップS515までの処理を視線計測装置21の動作が終了するまで繰り返し実行する(S517)。
CPU211が実行する第1プルキニエ像抽出処理は、光軸を推定する際に発生する誤差を減少させることを目的として実行する。第1プルキニエ像抽出においては、図4に示すステレオカメラ219C0、219C1によって撮影される眼球画像に表示されるLED218L0〜218L2の三つの反射像のうち、画像瞳孔中心に近いものを二つ選択する。これにより、より球状に近い部分での反射像のみを用いて、光軸を計算することができる。
CPU211が実行する第1プルキニエ像抽出処理を図9に示すフローチャートを用いて説明する。以下においては、図6に示すステップS501において、図10に示すような眼球画像が得られたものとする。
CPU211は、眼球画像に基づいて、反射像の位置を算出する(S901)。CPU211は、算出した反射像の位置に基づき、画像瞳孔中心に近い二つの反射像を選択する(S903)。
CPU211は、実際の眼球における視軸と光軸とのずれを修正するために、注視点算出処理を実行する。CPU211が実行する注視点算出処理の概要を説明する。図11に示すように、一般的に、人が実際に見ている点と、左右の目の光軸とディスプレイとの交点とは一致しない。そこで、ディスプレイ上で人が注視している点(注視点)を、「ディスプレイと左目の光軸との交点」および「ディスプレイと右目の光軸との交点」の中点と推定することとする。なぜならば、左右の目で光軸と視軸のずれは逆方向であり、また、左右の目の水平方向のずれの大きさが等しければ、中点では水平方向の誤差は、ほぼ0°となるからである。
ここで、視軸と光軸のなす角は、日本人の場合、一般的に、水平方向で3.5°〜7.5°(平均5.5°)、垂直方向で0.25°〜3°(平均1°)となる。なお、視軸とは、眼球のレンズ中心(角膜曲率中心Aにほぼ等しい)と中心窩Fを通る線(図5参照)であり、ディスプレイ上で人が実際に見ている点(注視点)と角膜曲率中心とを結ぶ線と同じものである。
そして、CPU211は、左右、両眼について算出した交点に基づき、その中点を算出し(S1205)、注視点とする(S1207)。
なお、本実施例における視線計測装置21’は、実施例1における視線計測装置21と同様の構成を有しており、また、注視点算出処理を除き同様の処理を実行する。したがって、以下においては、実施例1とは異なる注視点算出処理を中心に説明する。また、実施例1と同様の構成については、同様の番号を用いる。
図5に示すモデルで考えると、右目の視軸と左目の視軸の交点が注視点となる。したがって、右目、左目、それぞれの視軸を算出することができれば、注視点を算出することができる。しかしながら、視軸を直接的に算出することは難しい。一方、光軸については、実施例1の式(1)〜式(14)用いて算出することが可能である。そこで、本実施例においては、光軸の算出に加えて、光軸と視軸とのずれを算出することによって視軸を算出し、さらに注視点を算出する。
このとき、右目についての視軸−光軸間のずれと所定の面の交点DRとの関係は、以下の式(22)及び式(23)で表すことができる。
なお、時刻t=t1以降の時刻tにおいては、既にαR、βR、αL、βLは既知となっている。よって、式(20)を用いて右目の視軸ベクトルcR、及び、左目の視軸ベクトルcLを算出し、さらに、式(21)を用いて右目の視軸及び左目の視軸を算出する。算出した右目及び左目の視軸から交点を算出できる。算出した交点が注視点となる。
式(22)〜式(29)におけるfRx、fRyなどについては、単純に水平面からの回転、垂直面からの回転によって処理するもの等、さまざまなものが考えられる。本実施例において、直接、fRx、fRyなどを求めた上で、式(22)〜式(29)に基づく連立方程式をたてて、解を求めることは難しい。そこで、視線計測装置21’では、fRx、fRyなどを求めずに、式(22)〜式(29)に基づく連立方程式を満たす解を求める。
視線計測装置21’のCPU211の動作を図14に示すフローチャートを用いて説明する。CPU211は、右目についての光軸と視軸との間のずれを表す値αR、βR及び左目についての光軸と視軸との間のずれを表す値αL、βLを算出するずれ算出処理を実行する(S1401)。ずれ算出処理は、一連の視線計測装置21’において一度だけ実施される。
CPU211は、算出した値αR、βR、αL、βLを用いて、注視点を算出する注視点算出処理を実行する(S1403)。注視点算出処理は、ずれ算出処理の終了後、所定時間間隔で繰り返し、視線計測装置21’の動作が終了するまで繰り返し実行される。
以下において、ずれ算出処理(S1401)、及び、注視点算出処理(S1403)を詳細に説明する。
視線計測装置21’のCPU211は、一連の動作において、ずれ算出処理を最初に1回だけ実行し、 右目についての光軸と視軸との間のずれを表す値αR、βR及び左目についての光軸と視軸との間のずれを表す値αL、βLを算出する。ずれ算出処理を図15に示すフローチャートを用いて説明する。説明に当たっては、図16に示す図も適宜参照する。
CPU211は、時刻t=t1において、左目についてステップS501〜S513(図6参照)を実行し、左目の光軸(図16B:ベクトルdL)を算出する(S1511)。CPU211は、算出した左目の光軸、及び、ステップS1505で算出した左目のずれ候補値αL(0)、βL(0)を用いて、左目について、後述の「B)交点算出処理」を実行する(S1513)。これにより、左目についての視軸(図16B:ベクトルcL)を算出し、視軸とディスプレイとの交点DL(0)を算出する。
第1のずれ算出処理は、一方の目の光軸−視軸間のずれから、他方の目の光軸−視軸間のずれを算出する処理である。ここでは、右目の光軸−視軸間のずれから、左目の光軸−視軸間のずれを算出する。第1のずれ算出処理を図17に示すフローチャートを用いて説明する。
CPU211は、右目の光軸−視軸間のずれを代表する値αR、βRが既知であるとすると、後述の「B)交点算出処理」を実行する(S1601)。これにより、右目の視軸とディスプレイとの交点D=(Dx,Dy,Dz)を算出できる。なお、ディスプレイは、前述の式(18)により算出できる。
次に、CPU211は、左目について、後述の「C)第2のずれ算出処理」を実行する(S1603)。この処理により、左目で交点D=(Dx,Dy,Dz)を見ているときの、左目のずれαL、βLを算出できる。
交点算出処理は、光軸と視軸のずれが分かっているときに、式(1)から式(14)により求めた光軸から視軸を計算し、視軸と所定の面との交点を算出する処理である。
光軸と視軸とのずれを表すα、βを用いて、視軸方向の単位ベクトルc(視軸ベクトルc)を算出することができる。視軸ベクトルcを算出する方法は複数考えられるが、例として、リスティングの法則に基づいた算出方法を後述する。
視軸ベクトルcを算出できれば、視線は式(21)で表すことができる。一方、ディスプレイについては、式(18)式で表すことができる。よって、式(21)及び式(18)を用いて、視軸とディスプレイとの交点Dを算出することができる。
第2のずれ算出処理は、一方の目について、ディスプレイと視軸との交点が既知である時に、その交点を注視点と仮定して、他方の目について、光軸と視軸のずれを求める処理である。
他方の目の角膜曲率中心A及び光軸は、式(1)〜式(14)式により算出できる。注視点Dが分かっている場合、他方の目の視軸方向の単位ベクトルc(視軸ベクトルc)は、以下の式(31)で表すことができる。
リスティングの法則を用いた第2のずれ算出処理を後述する。
視線計測装置21’のCPU211がずれ算出処理の後に実行する注視点算出処理について、図18に示すフローチャートを用いて説明する。
CPU211は、所定の時刻において、右目についてステップS501〜S513(図6参照)を実行し、右目の光軸を算出する(S1701)。CPU211は、ステップS1523で判断した右目についてのずれの値αR、βRを用いて、右目についての視軸を算出する(S1703)。右目の視軸を算出するにあたっては、右目の視軸ベクトルcR、ステップS507で算出した右の角膜の曲率中心位置ARを用いると、x=AR+tcRと表すことができる。
CPU211は、右目の視軸と左の視軸の交点Dを注視点として算出する(S1709)。
CPU211は、ステップS1701〜ステップS1709までの処理を動作の終了まで繰り返す(S1711)。
以上のように、本実施例に係る視線計測装置では、既知の点を意図して注視することなく、個人依存のパラメータであるずれの値αR、βR、αL、βLを求めることができ、キャリブレーションを必要とせず、精度良く視線計測を行うことができる。
3.1.リスティングの法則
以下において、リスティングの法則について説明する。眼球は、その動作において実行可能な全ての動作をするわけではなく、通常は、ある一定の法則に従って動作している。この一定の法則をリスティングの法則という。リスティングの法則は、眼の回転運動と眼位に関する法則であり、「(a)眼球の任意の眼位は、第1眼位から単一の回転で到達できる位置しかとらず、そして、(b)その回転の回転軸は、第1眼位の視軸方向に垂直な平面(リスティング平面)内に存在する」という眼球動作に関する法則をいう。なお、第1眼位は、リスティングの法則を満たす頭部に対する相対的な目の位置であり、およそまっすぐ立ったときに水平に真正面を見たときの方向となる。
眼球動作前の第1眼位及び動作後の眼位における視軸と光軸との関係を図13Aに示す。なお、動作後の眼位には、第1眼位から縦または横に眼球が回転した時の眼球の位置(第2眼位)及び第1眼位から縦または横への回転以外の回転をした時の眼球の位置(第3眼位)を含む。図13Aでは、第1眼位における視軸の単位方向ベクトル(第1視軸ベクトル)をa、第1眼位における光軸の単位方向ベクトル(第1光軸ベクトル)をb、眼球動作後の眼位における視軸の単位方向ベクトル(第2視軸ベクトル)をc、眼球動作後の眼位における光軸の単位方向ベクトル(第2光軸ベクトル)をdとしている。
第1視軸ベクトルaは、人がおおよそ真っ直ぐ立って正面を見た時の向きのベクトルである。第1視軸ベクトルaは、頭部の位置とともに変動するベクトルであるため、頭部の位置を画像処理または3次元センサー等で計測し、あらかじめ算出しておく。
以下で説明するリスティングの法則に基づくB)交点算出処理及びC)第2のずれ算出処理では、座標系として第1視軸ベクトルaを基準にした座標系を用いる。ここでは、個人依存のパラメータである光軸と視軸のずれを表す値α、βは、第1光軸ベクトルbを表す二つの変数である。なお、第1光軸ベクトルbは3次元空間のベクトルであるため、X軸の値(x)、Y軸の値(y)、Z軸の値(z)の三変数で表すことができるが、第1光軸ベクトルbを単位ベクトルとすることによって、x2+y2+z2=1の条件が付加されるので、x、yが分かればzも分かる。なお、zの符号は光軸ベクトルとの成す角度が小さくなる方である。よって、第1光軸ベクトルbを表す値α、βとして、x、yを用いればよい。
また、B)交点算出処理及びC)第2のずれ算出処理は、片目を対象として行われる処理である。
CPU211が実行するリスティングの法則を用いた交点算出処理を図19に示すフローチャートを用いて説明する。なお、交点算出処理を実行する際には、光軸と視軸のずれを表す値α、βがステップS1503、S1505、S1517で既に設定されており、第1光軸ベクトルbが設定されている場合である。
CPU211が実行するリスティングの法則を用いた第2のずれ算出処理を図20に示すフローチャートを用いて説明する。第2のずれ算出処理では、一方の目についてのB)交点算出処理により得られたディスプレイとの交点D=(Dx,Dy,Dz)が、他方の目についての視軸とディスプレイとの交点Dとなる、つまり、右目、左目の両目で交点Dを見ていると仮定して、他方の目に関する光軸−視軸間のずれα、β、つまり第1光軸ベクトルbを算出する。以下においては、B)交点算出処理によって第1光軸ベクトルbを算出した目とは異なる目について実行する処理であるため、各ベクトルを表す記号にはプライム記号(’)を付している。
CPU211は、第2視軸ベクトルc’を、以下の式(42)で算出する(S2005)。
第2光軸ベクトルd’をクォータニオンを用いて表すと、以下の式(46)となる。
以上より、第1光軸ベクトルb’は、クォータニオンを用いて以下の式(48)として表すことができる。
21’・・・・・視線計測装置
216a・・・・・ディスプレイ
218L0・・・・・LED
218L1・・・・・LED
218L2・・・・・LED
219C0・・・・・ステレオカメラ
219C1・・・・・ステレオカメラ
Claims (18)
- 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
算出した前記光軸を利用して、当該光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段、
前記光軸と前記視軸との間のずれに基づき、被験者の前記画面上での注視点を算出する注視点算出手段、
を有する視線計測装置であって、
前記ずれ算出手段は、
a)ある時刻において、
a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
a3)算出した視軸を用いて、前記画面との交点を算出し、
a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
b)他の時刻において、
b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
c)さらに、
c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、
前記注視点算出手段は、
前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出すること、
を特徴とする視線計測装置。 - 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
前記眼球画像から、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
算出した前記光軸を利用して、当該光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段、
前記光軸と前記視軸との間のずれに基づき、前記光軸をずらして前記視軸を求め、被験者の前記画面上での注視点を前記画面と前記視軸の交点として算出する注視点算出手段、
を有する視線計測装置。 - 請求項2に係る視線計測装置において、
前記ずれ算出手段は、さらに、
ある時刻において、一の眼球及び他の一の眼球それぞれの光軸と視軸との間のずれ候補の初期値を設定し、
他の時刻において、前記一の眼球及び前記他の一の眼球について、当該他の時刻において算出した光軸及び前記ある時刻において設定した前記ずれ候補を用いて評価値を算出し、新たなずれ候補を設定するということを繰り返し、
前記評価値を用いて、算出したずれ候補から一の眼球及び他の一の眼球それぞれの光軸と視軸との間の最適なずれを決定すること、
を特徴とする視線計測装置。 - 請求項3に係る視線計測装置において、
前記ずれ算出手段は、さらに、
所定の範囲内に存在する全ての前記新たなずれ候補を算出すること、
を特徴とする視線計測装置。 - 請求項4に係る視線計測装置において、
前記ずれ算出手段は、さらに、
a)ある時刻において、
a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
a3)算出した視軸を用いて、前記画面との交点を算出し、
a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
b)他の時刻において、
b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
c)さらに、
c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断すること、
を特徴とする視線計測装置。 - 請求項2〜5のいずれかに係る視線計測装置において、さらに、
前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
を有し、
前記光軸算出手段は、
前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出すること、
を特徴とする視線計測装置。 - 所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
前記光軸算出手段を用いて、左右の眼球について算出した前記光軸のそれぞれと前記画面との交点の中点を注視点として算出する注視点算出手段、
を有することを特徴とする視線計測装置。 - 請求項1,6,7のいずれかに係る視線計測装置において、
前記角膜曲率中心位置算出手段は、さらに、
角膜の曲率半径が一定となる領域である曲率半径一定領域に形成される第1プルキニエ像を用いて前記角膜の前記曲率中心位置を算出すること、
を特徴とする視線計測装置。 - 請求項8に係る視線計測装置において、
前記角膜曲率中心位置算出手段は、さらに、
前記眼球画像における前記角膜の中心部を前記曲率半径一定領域とすること、
を特徴とする視線計測装置。 - 請求項9に係る視線計測装置において、
前記光軸算出手段は、さらに、
前記第1プルキニエ像を用いて、前記眼球の前記光軸を算出すること、
を特徴とする視線計測装置。 - 請求項7〜10に係る視線計測装置のいずれかにおいて、
前記曲率半径一定領域に形成される前記第1プルキニエ像を、複数、用いること、
を特徴とする視線計測装置。 - 請求項11に係る視線計測装置において、
前記曲率半径一定領域に形成される複数の前記第1プルキニエ像のうち、前記眼球の瞳孔中心に近い二つの前記第1プルキニエ像を用いること、
を特徴とする視線計測装置。 - コンピュータを、視線計測装置として機能させるための視線計測プログラムであって、
前記プログラムは、コンピュータを、
所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得する眼球画像取得手段、
前記眼球画像から角膜の曲率中心位置を算出する角膜曲率中心位置算出手段、
前記曲率中心位置に基づき、前記角膜の曲率半径を算出する曲率半径算出手段、
前記曲率半径に基づき、瞳孔の中心位置を算出する瞳孔中心位置算出手段、
前記角膜の曲率中心位置及び前記瞳孔の中心位置に基づき、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出する光軸算出手段、
算出した前記光軸を利用して、当該光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出するずれ算出手段、
前記光軸と前記視軸との間のずれに基づき、被験者の前記画面上での注視点を算出する注視点算出手段、
を有する視線計測装置であって、
前記ずれ算出手段は、
a)ある時刻において、
a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
a3)算出した視軸を用いて、前記画面との交点を算出し、
a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
b)他の時刻において、
b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
c)さらに、
c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、
前記注視点算出手段は、
前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出すること、
を特徴とする視線計測装置として機能させること、
を特徴とする視線計測プログラム。 - コンピュータを用いて視線を計測する視線計測方法であって、
前記コンピュータは、
所定の画面を見ている被験者について所定の光源からの光が反射した眼球の画像である眼球画像を取得し、
前記眼球画像から、角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出し、
a)ある時刻において、
a1)一の眼球について、当該眼球に関する光軸−視軸間のずれ候補の初期値を設定し、
a2)当該一の眼球に関する光軸及び設定したずれ候補を用いて、当該一の眼球に関する視軸を算出し、
a3)算出した視軸を用いて、前記画面との交点を算出し、
a4)他の一の眼球について、当該眼球の光軸及び前記交点に基づき、当該眼球に関する光軸−視軸間のずれ候補を算出し、
b)他の時刻において、
b1)前記一の眼球の光軸−視軸間のずれ候補を用いて、当該一の眼球についての前記画面との交点を算出し、
b2)前記他の一の眼球に関する光軸−視軸間のずれ候補を用いて、当該他の一の眼球について前記画面との交点を算出し、
b3)前記一の眼球についての前記交点と前記他の一の眼球についての前記交点との間の距離を算出し、
c)さらに、
c1)前記一の眼球について、所定の範囲に含まれる、新たな当該眼球に関する光軸−視軸間のずれ候補を設定し、
c2)前記a2)〜a4)の処理、b)の処理、及びc1)の処理を、所定の範囲に含まれる前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補の全てについて繰り返し実行し、
d)算出した距離の中から最小のもの抽出し、抽出した距離を算出するために用いた前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれ候補を、それぞれの眼球についての光軸−視軸間のずれと判断し、
前記他の時刻以降の時刻において、判断した前記一の眼球及び前記他の一の眼球についての光軸−視軸間のずれを用いて、前記一の眼球及び前記他の一の眼球のそれぞれの光軸をずらしてそれぞれの視軸を求め、前記注視点をそれぞれの視軸の交点として算出すること、
を特徴とする視線計測方法。 - 請求項11に係る視線計測装置に用いるディスプレイであって、
眼球に光を照射する光源手段であって、眼球における前記光源の反射像が互いに分離したものとなるように、前記光源手段が前記ディスプレイの外縁部に複数配置され、角膜の曲率半径一定領域に複数の第1プルキニエ像を形成させること、
を特徴とする視線計測装置用ディスプレイ。 - 請求項15に係るディスプレイにおいて、
前記光源手段は、
少なくとも前記ディスプレイの上縁部、右縁部及び左縁部に設けられること、
を特徴とする視線計測装置用ディスプレイ。 - 請求項15又は16に係るディスプレイにおいて、さらに、
前記視線計測装置の被験者の眼球画像を取得する撮影手段を有すること、
を特徴とする視線計測装置用ディスプレイ。 - 請求項17に係るディスプレイにおいて、
前記撮影手段は、
前記ディスプレイの下縁部に設けられること、
を特徴とする視線計測装置用ディスプレイ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008156229A JP5163982B2 (ja) | 2008-06-16 | 2008-06-16 | 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008156229A JP5163982B2 (ja) | 2008-06-16 | 2008-06-16 | 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009297323A JP2009297323A (ja) | 2009-12-24 |
JP5163982B2 true JP5163982B2 (ja) | 2013-03-13 |
Family
ID=41544841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008156229A Active JP5163982B2 (ja) | 2008-06-16 | 2008-06-16 | 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5163982B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3413234A1 (en) | 2017-06-09 | 2018-12-12 | Aisin Seiki Kabushiki Kaisha | Gaze-tracking device, program, and method |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5371051B2 (ja) * | 2010-02-25 | 2013-12-18 | 国立大学法人神戸大学 | 視線計測装置、方法及びプログラム |
WO2011153112A2 (en) * | 2010-05-29 | 2011-12-08 | Wenyu Jiang | Systems, methods and apparatus for making and using eyeglasses with adaptive lens driven by gaze distance and low power gaze tracking |
JP5858433B2 (ja) * | 2010-12-08 | 2016-02-10 | 国立大学法人静岡大学 | 注視点検出方法及び注視点検出装置 |
JP5818233B2 (ja) * | 2011-05-24 | 2015-11-18 | 国立大学法人神戸大学 | 視線計測装置および方法 |
JP6019721B2 (ja) * | 2012-05-07 | 2016-11-02 | 株式会社ニコン | 他覚式変位測定装置、及び他覚式変位測定方法 |
JP6210023B2 (ja) * | 2013-11-28 | 2017-10-11 | 株式会社Jvcケンウッド | 視線検出支援装置および視線検出支援方法 |
JP6324119B2 (ja) * | 2014-03-04 | 2018-05-16 | 国立大学法人静岡大学 | 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム |
WO2016098406A1 (ja) | 2014-12-17 | 2016-06-23 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6909391B2 (ja) * | 2015-12-01 | 2021-07-28 | 株式会社Jvcケンウッド | 視線検出装置及び視線検出方法 |
US10115205B2 (en) | 2016-03-11 | 2018-10-30 | Facebook Technologies, Llc | Eye tracking system with single point calibration |
CN108780223B (zh) * | 2016-03-11 | 2019-12-20 | 脸谱科技有限责任公司 | 用于生成眼睛模型的角膜球跟踪 |
JP6948688B2 (ja) * | 2017-02-06 | 2021-10-13 | 国立大学法人神戸大学 | 視線計測装置、視線計測方法および視線計測プログラム |
JP7168953B2 (ja) * | 2018-06-12 | 2022-11-10 | 国立大学法人神戸大学 | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3289953B2 (ja) * | 1991-05-31 | 2002-06-10 | キヤノン株式会社 | 視線方向検出装置 |
JPH0761314B2 (ja) * | 1991-10-07 | 1995-07-05 | コナミ株式会社 | 網膜反射光量測定装置及び該装置を用いた視線検出装置 |
JPH07191796A (ja) * | 1993-12-27 | 1995-07-28 | Canon Inc | 視線入力システム |
JP3453911B2 (ja) * | 1995-03-02 | 2003-10-06 | 富士ゼロックス株式会社 | 視線認識装置 |
SE524003C2 (sv) * | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
JP4537901B2 (ja) * | 2005-07-14 | 2010-09-08 | 日本放送協会 | 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム |
JP4649319B2 (ja) * | 2005-11-21 | 2011-03-09 | 日本電信電話株式会社 | 視線検出装置、視線検出方法、および視線検出プログラム |
-
2008
- 2008-06-16 JP JP2008156229A patent/JP5163982B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3413234A1 (en) | 2017-06-09 | 2018-12-12 | Aisin Seiki Kabushiki Kaisha | Gaze-tracking device, program, and method |
US10783663B2 (en) | 2017-06-09 | 2020-09-22 | Aisin Seiki Kabushiki Kaisha | Gaze-tracking device, computable readable medium, and method |
Also Published As
Publication number | Publication date |
---|---|
JP2009297323A (ja) | 2009-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5163982B2 (ja) | 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ | |
JP6548171B2 (ja) | 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム | |
US9265414B2 (en) | Methods and systems for measuring interpupillary distance | |
KR102056333B1 (ko) | 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램 | |
US9323075B2 (en) | System for the measurement of the interpupillary distance using a device equipped with a screen and a camera | |
JP2010259605A (ja) | 視線測定装置および視線測定プログラム | |
JP4232166B2 (ja) | 眼鏡装着シミュレーション方法及び装置 | |
US10758124B2 (en) | Device and method for distance determination and/or centering using corneal reflections | |
JP2019194702A (ja) | 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法 | |
JP7168953B2 (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
JP2013539073A (ja) | 累進焦点眼鏡用レンズを選択する方法 | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
JP4536329B2 (ja) | アイポイントの位置決定方法及びアイポイント測定システム | |
KR20200006621A (ko) | 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램 | |
JP2013190942A (ja) | 視線誤差補正装置、そのプログラム及びその方法 | |
JP5590487B2 (ja) | 視線計測方法及び視線計測装置 | |
JP5714951B2 (ja) | 両眼瞳孔検査装置 | |
JP2019098024A (ja) | 画像処理装置及び画像処理方法 | |
US20240061278A1 (en) | Frame adjustment system | |
JP2013226397A (ja) | 近業目的距離測定装置、並びに近業目的距離測定装置を用いた眼鏡レンズの製造方法及び製造システム | |
JP2003079577A (ja) | 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体 | |
JP2011172853A (ja) | 視線計測装置、方法及びプログラム | |
CN110414302A (zh) | 非接触式的瞳距测量方法及系统 | |
JP2016057906A (ja) | 視点位置の計測方法及び計測システム | |
EP4227731A1 (en) | Method and mobile device for determining a visual point of a person |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121206 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5163982 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |