JP7168953B2 - 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム - Google Patents
自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム Download PDFInfo
- Publication number
- JP7168953B2 JP7168953B2 JP2018112372A JP2018112372A JP7168953B2 JP 7168953 B2 JP7168953 B2 JP 7168953B2 JP 2018112372 A JP2018112372 A JP 2018112372A JP 2018112372 A JP2018112372 A JP 2018112372A JP 7168953 B2 JP7168953 B2 JP 7168953B2
- Authority
- JP
- Japan
- Prior art keywords
- optical axis
- image
- search range
- point
- eyeball
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
そこで、実視線データに対する推定視線データの誤差を補正するために、ユーザ毎の補正用パラメタを予め算出しておき、算出された推定視線データをこの補正用パラメタで補正するキャリブレーションと呼ばれる処理が行われる。
キャリブレーションは、予め定められた複数のマーカを利用者に順に注視させ、それぞれのマーカが注視されたときの推定視線データを検出し、検出された推定視線データと眼球から各マーカへの実際の方向データとの差から補正用パラメタを算出する。
特許文献2に開示された視線計測装置は、ディスプレイ画面を見ているユーザについて、光源からの光が反射した眼球画像をカメラで取得し、眼球画像から角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出し、算出した光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出し、光軸と視軸との間のずれに基づき、光軸をずらして視軸を求め、ユーザの画面上での注視点を画面と視軸の交点として算出するものである。
特許文献2に開示された視線計測装置では、ディスプレイ画面上で眼球の視軸が交差するとしてユーザ固有のパラメタを求めるものがあるが、非常にノイズに敏感であり、実環境でキャリブレーションを行うためには、非常に高い精度で光軸を求める必要があり、実用化が困難であった。
また、光軸計測手段との位置関係が既知の表示パネルとは、光軸計測手段であるカメラや光源の位置との相対的な位置関係が予め分かっている表示パネルである。例えば、矩形のディスプレイやタブレットPCのような表示パネルの周縁部に、光軸計測手段であるカメラと光源が設けられる場合は、光軸計測手段と表示パネルの相対位置が既知といえる。既知でない場合は、光軸計測手段と表示パネルの相対位置が計測できる手段、例えば、カメラや距離センサを用いて、光軸計測手段と表示パネルの相対位置を計測するようにしてもよい。
また、表示パネルは、ユーザの顔に取り付けるゴーグル型の表示パネル、メガネレンズに相当する部分に表示パネルを設けたメガネ型の表示パネルでもよい。ゴーグル型やメガネ型の表示パネルも、同様に、表示パネルの周縁部に、光軸計測手段であるカメラと光源が設けられる。
特徴点抽出手段は、計測した光軸と表示パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する表示画像の特徴点を抽出する。具体的には、視軸が光軸から水平方向に約4~5°、垂直方向に約1.5°下にずれていることに鑑みて、水平方向は、右眼が-7~3°の範囲、左眼が-3~7°の範囲とし、垂直方向は、右眼と左眼の双方共に-3~3°の範囲とし、探索範囲として設定する。探索範囲は、左右それぞれの眼の計測した光軸と表示パネルとの交点を取り囲み、光軸に垂直な面で矩形の範囲で、縦横の長さは眼と表示パネルの距離と上記の角度範囲から決定される。
特徴点抽出手段で特徴点を抽出し、特徴点の分布のピーク位置を注視点と見做し、個々のユーザの右眼、左眼のカッパ角を算出し、計測した光軸を用いて、視軸を推定できる。
このように、自動キャリブレーションでありながら、1つの画像からユーザ固有のパラメタを算出するのではなく、複数の画像や時間経過に伴う複数の探索範囲を用いてユーザ固有のパラメタを算出することができるため、ノイズに対してロバスト性のある視線計測装置を提供することができる。
眼球の前方を撮影したカメラ画像は、眼球からある距離離れた大型ディスプレイに表示した画像と等価になることから、第2の観点の視線計測装置では、表示パネルに画像を表示する画像表示手段に替えて、眼球の前方を撮影する画像取得手段を備え、撮影した前方の画像を、カメラの被写体の位置に仮想的に設けられた仮想パネルにあたかも表示させるとして、計測した光軸と仮想パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出し、特徴点の分布のピーク位置を算出する。ここで、仮想パネルの位置は、カメラで撮影する被写体の位置に相当する位置になるが、撮影画像に写った様々な被写体がそれぞれ異なる3次元空間に存在することから、実際のところは、カメラの光軸方向に存在する被写体(焦点距離を合わせた被写体)の位置に相当する位置になる。眼球の前方数mの被写体であれば、画像取得手段であるカメラに、赤外線深度センサを搭載することにより、カメラと被写体の距離を計測できる。その場合には、計測した距離だけ眼球から離れた仮想パネルに、撮影した前方の画像を仮想的に表示させるとして、計測した光軸と仮想パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出するとよい。
眼球の前方を撮影したカメラの位置(通常は頭部に固定)と眼球を撮影するカメラの位置との相対位置関係は予め取得できるもの(既知)とする。
画像において、ユーザに視覚性ボトムアップ型注意を生じさせるものは、特徴点となり、注視点の候補にできる。
なお、画像に、視覚性ボトムアップ型注意と、視覚性トップダウン型注意とが混在していてもかまわない。
特徴マップを単に重ね合わせただけでは、顕著性が高くないものを注視し続けた場合に、正確に視軸を推定できなくなる恐れがある。そこで、画像を物体認識することにより、例えば、視覚性トップダウン型注意のように、人が興味を持ちそうなもの(人の顔や文字など)が、眼球の光軸の傍に存在する画像の特徴マップだけを計算に用いることにより、視軸の推定精度が向上する。さらに、認識物体に対して人が注意を惹く度合いについて予め重みを設定し、認識した物体に応じて特徴マップを重ね合わせる際の重みを変えることでもよい。または、光軸の周囲の探索範囲の画像が、一様な模様の中に1つだけ顕著性が高いものがあるという画像の特徴マップを計算に用いることでもよい。また、動いている物体を視線で追いかけるといった追跡眼球運動を行っている場合だけを計算に用いることでもよい。このように選択的な画像を用いて、特徴マップを重ね合わせることにより、視軸の推定精度を向上できる。
2つの光源手段は、眼球における光源の反射像が互いに分離したものとなるように各々異なる位置に配置され、各々の光源手段の照射光の形状パターン若しくは波長を異なるものとし、何れかのカメラ手段により撮像された眼球画像上における反射像の位置と実際の光源手段の位置とを対応付けすることができるようにする。なお、眼球における光源の反射像が2個である場合は、左右どちらにあるかで、眼球画像上における反射像と実際の光源手段とを対応付けを行うことができる。
光軸を計算するためには、実空間における3次元的な光源位置と、眼球画像上での反射像であるプルキニエ像の位置を対応付ける必要があるが、光源手段が複数存在する場合、光源手段が角膜に複数反射しているが、このような場合は、カメラ手段により撮影されたプルキニエ像と実際の光源手段との対応付けを行なう必要がある。
例えば、照射光の形状を光源毎にユニークなものにより光源手段を判別する。また、光の色(可視光波長のみならず赤外線波長も含む)によって光源手段を判別することでもよい。
本発明の第1の観点の視線計測方法は、眼球の光軸を計測する光軸計測ステップと、光軸計測手段との相対位置が既知の表示パネルに画像を表示する画像表示ステップと、計測した光軸と表示パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出し、特徴点の分布のピーク位置を算出する特徴点抽出ステップと、抽出した特徴点の分布のピーク位置と、光軸と表示パネルとの交点の位置とから、眼球の光軸と視軸のカッパ角を算出して視軸を推定する視軸推定ステップを備える。ここで、光軸計測手段が、例えば、カメラと光源を用いて計測するものであれば、表示パネルは、カメラ又は光源との相対位置が分かればよい。
また、特徴点抽出ステップでは、計測した右眼の光軸とパネルとの交点の周囲で、右眼の注視点が存在する可能性のある右眼の探索範囲、計測した左眼の光軸とパネルとの交点の周囲で、左眼の注視点が存在する可能性のある左眼の探索範囲、上記の右眼の探索範囲と左眼の探索範囲の重複する範囲内に存在する画像の特徴点を抽出することが好ましい。
光軸計測手段12は、光源手段10とカメラ手段11と光軸計測ユニット12aから構成される。光軸計測ユニット12aは、実空間における3次元的な光源手段10の位置情報と、カメラ手段11により撮影されたプルキニエ像(眼球画像上での反射像)の位置を対応付けして光軸を算出するコンピュータである。光軸計測ユニット12aから特徴点抽出手段16へ光軸計測データが伝達される。光源手段10は、具体的には赤外線LEDを用い、カメラ手段11は赤外線カメラを用いる。カメラ手段11は、ユーザの眼球を撮影できるように配置される。光軸計測手段12の詳細については後述する。
ここで、探索範囲について図3を参照して説明する。図3に示すように、眼球3(正確には眼球回転中心4)から距離Lだけ前方に離れた位置に、眼球3の光軸2と垂直に表示パネル5があるとし、光軸2と表示パネル5との交点7の周囲に探索範囲6があるならば、眼球を基準とした座標系を用いて、交点の座標位置、探索範囲6の矩形の座標位置、探索範囲内の画像の特徴点の位置(特徴点は1点または領域でもよい)を取得することができる。なお、表示パネル5の画像を斜めから見るように、表示パネル5の表示面が、光軸2に垂直ではなく斜めの姿勢であっても構わない。その場合には、探索範囲6の形状は、矩形ではなく、歪んだ四角形になる。歪んだ四角形のまま特徴点を抽出してもよいし、歪んだ四角形を矩形に補正して特徴点を抽出してもよい。
光軸計測、特徴点抽出、視軸推定は、左眼と右眼のそれぞれ行い、左眼と右眼それぞれについてカッパ角を算出して視軸を推定する。
眼球の光軸を計測する光軸計測手段12は、上述のとおり、既に知られた光軸を計測する手段を用いることができるが、例えば、図4に示す眼球の形状モデルを用いたモデルベースのアプローチを用いることができる。眼球の形状モデルベースのアプローチでは、3次元で視線を求めることができ、十分な計測精度を保ったまま、キャリブレーションの簡素化や、頭部移動への対応の実現に有望であり、モデルベースのアプローチにより、キャリブレーションなしで眼球の光軸を求めることができる。眼球の形状モデルでは、角膜は球面と近似され、眼球の網膜上で最も解像度が高い場所は中心窩と呼ばれ、眼球のレンズ中心と角膜曲率中心との距離は無視され同一位置とされる。視線は、中心窩と注視点とを結ぶ線と定義され、角膜曲率中心を通るものとされている。中心窩と角膜曲率中心を結ぶ眼球の軸は、視軸と呼ばれる(視線と視軸は同じ線を表す)。光軸は、眼球の幾何学的な中心軸であり、角膜曲率中心と瞳孔中心を結ぶ線と定義される。ここで、視軸と光軸のなす角は、上述の如く、典型的な成人では、水平方向に約4~5°、垂直方向に約1.5°下にずれており、ずれ角は個人毎に異なることが知られている。眼球の視軸と光軸のなす角は、カッパ角(κ)と定義される。
そして、ユーザが表示パネルの前に位置し、表示パネルの画像を見ている場合には、2つの点光源(L0,L1)から出た光が、1つの眼球の角膜表面上で反射してカメラのイメージセンサ上に到達する経路は、図6に示すようになる。
これらのパラメタは、カメラ2台でそれぞれ点光源の反射光を2個検出できている時に算出する。ここで、一方のカメラに2個の反射光、他方のカメラに1個の反射光が検出できている時にも算出でき、そのような時にパラメタを算出してもよい。パラメタRは、計算上、3平面が求まれば計算できるからであり、パラメタKは、パラメタRを求める条件を満たした上で、カメラ2台にそれぞれ瞳孔が検出できた時に計算できるからである。この他、カメラ2台でそれぞれ点光源を2個検出できない状態が続き、算出不可の場合は、人の平均値を用いることも可能である。角膜曲率半径Rの平均値は7.8mm、角膜曲率中心と瞳孔中心との距離Kの平均値は4.2mmである。
図9は、点光源Liとカメラ中心Cjと角膜曲率中心Aを通る平面である。Rの求め方は以下の通りである。まず、Rを適当に設定し、角膜の球(Aを中心とした半径Rの球)とP’jiとCjを通る直線との交点P”jiを求めて、P”jiでの入射ベクトル(Li-P”ji)と反射ベクトル(Cj-P”ji)がP”jiでの球の法線ベクトル(P”ji-A)となす角度が等しくなるかどうかを確認する。Rを変化させて、これを繰り返し、この反射の関係を満たすようなRを探索する。Rの平均値は、一般に7.8mmであることが知られており、Rの値を6mm~9mmの範囲で探索するとよい。
上記の計算は、カメラと点光源の組み合わせによって、3~4パターンの計算が可能である。これらの3~4パターンから計算した角膜曲率半径の平均値を、最終的なRの推定値とすると、より安定する。
まず、瞳孔中心位置Bを求める。図8より、瞳孔中心から出た光は、角膜表面上のB”jで屈折する。B”jの位置で、カメラから光が来た場合の数式にすると、入射ベクトルは下記数式5で表される。
画像表示手段14は、前述のとおり表示パネルに画像を表示するもので、表示パネルに同じ画像を表示していても、ユーザの視線は動き、ユーザの自由な意思によって注視対象は変動する。例えば、PCのデスクトップ画面において、アイコンが散在していると、ユーザは何れかのアイコンを注視する場合が多い。複数のアイコンのどのアイコンを見ているのかはユーザの自由な意思で決定されるが、光軸の周囲で探索範囲を設定するため、複数のアイコンから注視点候補を見出すことができる。また、ある画像を見るときは、時間経過に伴い注視点が変化する場合がある。この場合であっても、光軸の周囲で探索範囲を設定するため、探索範囲における特徴点を注視点候補とすることができる。このように画像表示手段は、ユーザの前面に配置される表示パネルに、少なくとも1つの特徴点を含む画像を表示させる。
本実施例における視線計測装置の特徴点抽出手段16では、探索範囲内の特徴点の特徴マップを算出し、特徴マップを重ね合わせて単一のサリエンシーマップを算出する。そして、サリエンシーのピーク位置を特徴点の分布のピーク位置とする。これについて図を参照しながら説明する。
図10(1)に示すように、表示パネルに7種のアイコン(プログラムやファイルの種類をシンボル化した小さな絵記号)20a~20gが表示されているとする。ユーザは、表示パネルの何れかのアイコン20a~20gに注意が向けられ、注視するかもしれない。ユーザが表示パネルを眺めている際に、上記(1)の光軸計測手段において光軸を計測すると、計測した光軸と表示パネルとの交点の位置が、図10(2)に示す“+”(符号22)であったとする。光軸と表示パネルとの交点22の周囲で注視点が存在する可能性のある探索範囲は、前述の如く、視軸が光軸から水平方向に約4~5°、垂直方向に約1.5°下にずれていることに鑑みて、水平方向は、右眼が-7~3°の範囲、左眼が-3~7°の範囲とし、垂直方向は、右眼と左眼の双方共に-3~3°の範囲とし、探索範囲として設定する。図10(2)の画像内に、右眼の探索範囲23と、右眼の光軸と表示パネルとの交点22を示す。ここで、右眼の探索範囲23は、厳密には矩形ではなく、歪んだ四角形となる。表示パネルの画像が右眼の光軸に垂直な面であれば、探索範囲は矩形になるが、通常、右眼と左眼の両眼で前面の表示パネルの画像を見るので、表示パネルがユーザの正面にあるとしても、右眼の光軸は前方斜め左寄り、左眼の光軸は前方斜め右寄りとなり、表示パネルの画像が右眼の光軸に垂直な面とならないからである。そして、図10(2)の探索範囲23の内部に存在する画像の特徴点を抽出することになるが、この画像の場合では、アイコン20eに注意が向けられ注視している可能性が高いと考えられる。すなわち、図10(2)の場合では、アイコン21eの画像が探索範囲内に存在する特徴点として抽出されることになる。図10(1)に示す画像が表示パネルに表示されている場合に、時間経過に伴って、ユーザの注視点が変わることがある。
また、動画像を用いて、それぞれの画像における複数の探索範囲の各々の特徴点を抽出し、特徴点の分布のピーク位置を算出することも可能である。
図14は、建物の扉の画像を示している。ユーザが図14の画像を見たときに、扉の上部に視線が向く。右眼の探索範囲ZRと左眼の探索範囲ZLの重複範囲ZO(図中のハッチング領域)に特徴点が存在している可能性が高いので、この重複範囲内に限定して特徴点を抽出する。
上記(1)の光軸計測手段12で得られた光軸と表示パネルとの交点の位置と、上記(3)の特徴点抽出手段16で算出した特徴点の分布のピーク位置とから、眼球の光軸と視軸のカッパ角(κ)を算出することができる。カッパ角(κ)はユーザ固有のパラメタであり、計測した光軸からカッパ角(κ)を用いて視軸を推定する。左眼と右眼のそれぞれについてカッパ角を算出して視軸を推定する。
視線計測装置の評価実験の結果について説明する。視線計測装置を用いて、眼鏡を着用していない被験者6名の視線計測を行った。実験は、頭部を顎の支えによって固定した状態で、眼から600mm離れた表示パネルに表示される3種類の画像を、被験者が30秒間自由に見る方法により行われた。3種類の画像は、アイコンが点在するデスクトップの画像(図10(1))、建物の画像(図13)、扉の画像(図14)を用いた。その結果、1点キャリブレーションによって決定されたカッパ(κ)角の値に近い値を算出できていることがわかった。特に、アイコンが点在するデスクトップの画像を見る場合に、3種類の画像の中で比較的良い結果が得られた。建物の画像を見た場合は、3種類の画像の中で比較的良くなかったが、それぞれの特徴マップを重ね合わせたサリレンシーマップが曖昧になっていたことが要因と考えられる。
第1の観点の視線計測方法では、図15に示すように、表示パネルに画像を表示し(画像表示ステップS01)、表示された画像を眺めるユーザの眼球の光軸を計測する(光軸計測ステップS02)。そして、光軸と表示パネルとの交点の周囲の探索範囲内に存在する特徴点を抽出し、特徴点の分布のピーク位置を算出する(特徴点抽出ステップS03)。そして、特徴点の分布のピーク位置と交点の位置から、光軸と視軸のカッパ角を算出し視軸を推定する(視軸推定ステップS04)。
なお、探索範囲内の特徴点の特徴マップを算出する際には、図17に示すように、一方(左眼または右眼)の光軸と表示パネルとの交点の周囲の探索範囲を算出し(S311)、他方の光軸とパネルとの交点の周囲の探索範囲を算出して(S312)、右眼の探索範囲と左眼の探索範囲の重複する範囲内に存在する特徴点を抽出し(S313)、特徴マップを算出することでもよい。
光軸計測手段12は、実施例1の視線計測装置と同様、光源手段10とカメラ手段11と光軸計測ユニット12aから構成され、光軸計測ユニット12aから特徴点抽出手段16へ光軸計測データが伝達される。
画像取得手段15は、前方撮影カメラ手段15aから構成される。前方撮影カメラ手段15aは、ユーザの眼球の前方を撮影できるカメラであり、例えば、市販のヘッドマウント型カメラを用いることができる。
特徴点抽出手段16と視軸推定手段18は、実施例1の視線計測装置と同様であるが、特徴点抽出手段16は、前方撮影カメラ手段15aから得た画像データを、カメラ手段15aの被写体の位置に仮想的に設けられた仮想パネルに投影しているとして、実施例1と同様に、計測した光軸と仮想パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出している。
第2の観点の視線計測方法では、図19に示すように、眼球の前方をカメラで撮影し(画像取得ステップS11)、前方を眺めるユーザの眼球の光軸を計測する(光軸計測ステップS12)。そして、光軸とカメラの被写体の位置に仮想的に設けられた仮想パネルとの交点の周囲の探索範囲内に存在する特徴点を抽出し、特徴点の分布のピーク位置を算出する(特徴点抽出ステップS13)。そして、特徴点の分布のピーク位置と交点の位置から、光軸と視軸のカッパ角を算出し視軸を推定する(視軸推定ステップS14)。眼球の前方を撮影したカメラ画像は、眼球からある距離離れた大型ディスプレイに表示した画像と等価になる。そのため、撮影した前方の画像を、カメラの被写体の位置に仮想的に設けられた仮想パネルにあたかも表示させるとして、計測した光軸と仮想パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出し、特徴点の分布のピーク位置を算出する。
特徴点抽出ステップS13の詳細なフローについては、実施例2と同様であり、前述した図16の処理フローと同じである。
2 光軸
3 眼球
4 眼球回転中心
5 表示パネル
6 交点
7 探索範囲
10 光源手段
11 カメラ手段
12 光軸計測手段
12a 光軸計測ユニット
14 画像表示手段
14a 表示パネル
14b 画像表示コントローラ
15 画像取得手段
15a 前方撮影カメラ手段
16 特徴点抽出手段
18 視軸推定手段
20a~20g,21a~21g アイコン
22 光軸と表示パネルとの交点
23,23a~23d,31~37 探索範囲
24 探索範囲の画像群
25 特徴点分布
26 特徴点分布のピーク位置
L 眼球と表示パネルとの距離
ZL 左眼の探索範囲
ZR 右眼の探索範囲
ZO 重複範囲
Claims (8)
- 眼球の光軸を計測する光軸計測手段と、
光軸計測手段との相対位置が既知の表示パネルに画像を表示する画像表示手段と、
計測した光軸と表示パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出し、特徴点の分布のピーク位置を算出する特徴点抽出手段と、
前記ピーク位置と前記交点の位置から、眼球の光軸と視軸のカッパ角を算出して視軸を推定する視軸推定手段、
を備え、
前記特徴点抽出手段では、
計測した右眼の光軸と前記パネルとの交点の周囲で、右眼の注視点が存在する可能性のある右眼の探索範囲、
計測した左眼の光軸と前記パネルとの交点の周囲で、左眼の注視点が存在する可能性のある左眼の探索範囲、
上記の右眼の探索範囲と左眼の探索範囲の重複する範囲内に存在する画像の特徴点を抽出することを特徴とする視線計測装置。 - 前記光軸計測手段は、ユーザの眼球を撮影するために配置された少なくとも2台のカメラ手段と2つの光源手段を用いて光軸を計測することを特徴とする請求項1に記載の視線計測装置。
- 眼球の光軸を計測する光軸計測ステップと、
光軸計測手段との相対位置が既知の表示パネルに画像を表示する画像表示ステップと、
計測した光軸と表示パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出し、特徴点の分布のピーク位置を算出する特徴点抽出ステップと、
前記ピーク位置と前記交点の位置から、眼球の光軸と視軸のカッパ角を算出して視軸を推定する視軸推定ステップ、
を備え、
前記特徴点抽出ステップでは、
計測した右眼の光軸と前記パネルとの交点の周囲で、右眼の注視点が存在する可能性のある右眼の探索範囲、
計測した左眼の光軸と前記パネルとの交点の周囲で、左眼の注視点が存在する可能性のある左眼の探索範囲、
上記の右眼の探索範囲と左眼の探索範囲の重複する範囲内に存在する画像の特徴点を抽出することを特徴とする視線計測方法。 - 眼球の光軸を計測する光軸計測手段と、
光軸計測手段との相対位置が既知のカメラ手段を有し、眼球の前方を撮影する画像取得手段と、
計測した光軸と前記カメラ手段の被写体の位置に仮想的に設けられた仮想パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出し、特徴点の分布のピーク位置を算出する特徴点抽出手段と、
前記ピーク位置と前記交点の位置から、眼球の光軸と視軸のカッパ角を算出して視軸を推定する視軸推定手段、
を備え、
前記特徴点抽出手段では、
計測した右眼の光軸と前記パネルとの交点の周囲で、右眼の注視点が存在する可能性のある右眼の探索範囲、
計測した左眼の光軸と前記パネルとの交点の周囲で、左眼の注視点が存在する可能性のある左眼の探索範囲、
上記の右眼の探索範囲と左眼の探索範囲の重複する範囲内に存在する画像の特徴点を抽出することを特徴とする視線計測装置。 - 眼球の光軸を計測する光軸計測ステップと、
光軸計測手段との相対位置が既知のカメラ手段で眼球の前方を撮影する画像取得ステップと、
計測した光軸と前記カメラ手段の被写体の位置に仮想的に設けられた仮想パネルとの交点の周囲で注視点が存在する可能性のある探索範囲内に存在する画像の特徴点を抽出し、特徴点の分布のピーク位置を算出する特徴点抽出ステップと、
前記ピーク位置と前記交点の位置から、眼球の光軸と視軸のカッパ角を算出して視軸を推定する視軸推定ステップ、
を備え、
前記特徴点抽出ステップでは、
計測した右眼の光軸と前記パネルとの交点の周囲で、右眼の注視点が存在する可能性のある右眼の探索範囲、
計測した左眼の光軸と前記パネルとの交点の周囲で、左眼の注視点が存在する可能性のある左眼の探索範囲、
上記の右眼の探索範囲と左眼の探索範囲の重複する範囲内に存在する画像の特徴点を抽出することを特徴とする視線計測方法。 - 請求項3又は5の視線計測方法の各ステップを、コンピュータに実行させるための視線計測プログラム。
- 請求項1,2,4の何れかの視線計測装置が搭載された乗り物。
- 請求項6の視線計測プログラムを実行するコンピュータが搭載された携帯端末。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112372A JP7168953B2 (ja) | 2018-06-12 | 2018-06-12 | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112372A JP7168953B2 (ja) | 2018-06-12 | 2018-06-12 | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215688A JP2019215688A (ja) | 2019-12-19 |
JP7168953B2 true JP7168953B2 (ja) | 2022-11-10 |
Family
ID=68918742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112372A Active JP7168953B2 (ja) | 2018-06-12 | 2018-06-12 | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7168953B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021140938A1 (ja) * | 2020-01-06 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 |
JP7331729B2 (ja) | 2020-02-19 | 2023-08-23 | マツダ株式会社 | 運転者状態推定装置 |
JP7331728B2 (ja) | 2020-02-19 | 2023-08-23 | マツダ株式会社 | 運転者状態推定装置 |
CN111772572B (zh) * | 2020-05-09 | 2022-12-20 | 温州医科大学 | 一种人眼Kappa角测量装置及Kappa角测量方法 |
JP7423005B2 (ja) | 2020-05-13 | 2024-01-29 | 国立大学法人神戸大学 | 瞳孔径変化を用いた視線計測用キャリブレーション方法及び装置、並びに視線計測装置及びカメラ装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005261728A (ja) | 2004-03-19 | 2005-09-29 | Fuji Xerox Co Ltd | 視線方向認識装置及び視線方向認識プログラム |
JP2009297323A (ja) | 2008-06-16 | 2009-12-24 | Kobe Univ | 視線計測装置 |
JP2012080910A (ja) | 2010-10-06 | 2012-04-26 | Fujitsu Ltd | 補正値算出装置、補正値算出方法および補正値算出プログラム |
JP2015125543A (ja) | 2013-12-26 | 2015-07-06 | スリーエム イノベイティブ プロパティズ カンパニー | 視線予測システム、視線予測方法、および視線予測プログラム |
JP2015152939A (ja) | 2014-02-10 | 2015-08-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017224068A (ja) | 2016-06-14 | 2017-12-21 | 大学共同利用機関法人自然科学研究機構 | 質感評価システム |
-
2018
- 2018-06-12 JP JP2018112372A patent/JP7168953B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005261728A (ja) | 2004-03-19 | 2005-09-29 | Fuji Xerox Co Ltd | 視線方向認識装置及び視線方向認識プログラム |
JP2009297323A (ja) | 2008-06-16 | 2009-12-24 | Kobe Univ | 視線計測装置 |
JP2012080910A (ja) | 2010-10-06 | 2012-04-26 | Fujitsu Ltd | 補正値算出装置、補正値算出方法および補正値算出プログラム |
JP2015125543A (ja) | 2013-12-26 | 2015-07-06 | スリーエム イノベイティブ プロパティズ カンパニー | 視線予測システム、視線予測方法、および視線予測プログラム |
JP2015152939A (ja) | 2014-02-10 | 2015-08-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017224068A (ja) | 2016-06-14 | 2017-12-21 | 大学共同利用機関法人自然科学研究機構 | 質感評価システム |
Non-Patent Citations (1)
Title |
---|
長松 隆,両眼モデルを用いたユーザキャリブレーションフリー視線計測手法,画像ラボ,日本,日本工業出版株式会社,2012年06月10日,第23巻第6号,pp.29-34 |
Also Published As
Publication number | Publication date |
---|---|
JP2019215688A (ja) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7168953B2 (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
US10878237B2 (en) | Systems and methods for performing eye gaze tracking | |
US6659611B2 (en) | System and method for eye gaze tracking using corneal image mapping | |
US8457352B2 (en) | Methods and apparatus for estimating point-of-gaze in three dimensions | |
EP3371781B1 (en) | Systems and methods for generating and using three-dimensional images | |
Hennessey et al. | Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions | |
US20140218281A1 (en) | Systems and methods for eye gaze determination | |
WO2015190204A1 (ja) | 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム | |
CN112102389A (zh) | 确定实物至少一部分的3d重构件的空间坐标的方法和系统 | |
CN113808160B (zh) | 视线方向追踪方法和装置 | |
JP6631951B2 (ja) | 視線検出装置及び視線検出方法 | |
US20170263017A1 (en) | System and method for tracking gaze position | |
US10620454B2 (en) | System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping of camera images | |
US11181978B2 (en) | System and method for gaze estimation | |
JP2009297323A (ja) | 視線計測装置 | |
EP3542308B1 (en) | Method and device for eye metric acquisition | |
JP6948688B2 (ja) | 視線計測装置、視線計測方法および視線計測プログラム | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
US11754856B2 (en) | Method for designing eyeglass lens, method for manufacturing eyeglass lens, eyeglass lens, eyeglass lens ordering device, eyeglass lens order receiving device, and eyeglass lens ordering and order receiving system | |
Nitschke et al. | I see what you see: point of gaze estimation from corneal images | |
JP3711053B2 (ja) | 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体 | |
Li et al. | An efficient method for eye tracking and eye-gazed FOV estimation | |
Arai et al. | Computer input with human eyes only using two Purkinje images which works in a real time basis without calibration | |
JP6496917B2 (ja) | 視線測定装置および視線測定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7168953 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |