JP3711053B2 - Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program - Google Patents

Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program Download PDF

Info

Publication number
JP3711053B2
JP3711053B2 JP2001276169A JP2001276169A JP3711053B2 JP 3711053 B2 JP3711053 B2 JP 3711053B2 JP 2001276169 A JP2001276169 A JP 2001276169A JP 2001276169 A JP2001276169 A JP 2001276169A JP 3711053 B2 JP3711053 B2 JP 3711053B2
Authority
JP
Japan
Prior art keywords
line
sight
pupil position
pupil
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001276169A
Other languages
Japanese (ja)
Other versions
JP2003079577A (en
Inventor
健彦 大野
直樹 武川
厚 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2001276169A priority Critical patent/JP3711053B2/en
Publication of JP2003079577A publication Critical patent/JP2003079577A/en
Application granted granted Critical
Publication of JP3711053B2 publication Critical patent/JP3711053B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Complex Calculations (AREA)
  • Position Input By Displaying (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、利用者の注視方向を測定する視線測定装置及びその方法と、その視線測定方法の実現に用いられる視線測定プログラム及びそのプログラムを記録した記録媒体とに関し、特に、利用者に負担をかけずに、かつ、頭部に特別な装置を装着することなく利用者の注視方向を測定できるようにする視線測定装置及びその方法と、その視線測定方法の実現に用いられる視線測定プログラム及びそのプログラムを記録した記録媒体とに関する。
【0002】
身体にハンディキャップを持つ人がコンピュータを利用できるようにするためなどの理由から、視線を用いてコンピュータを操作する視線インタフェースに関する研究が進められている。この視線インタフェースでは、例えばコンピュータの画面上にメニューやボタンやアイコンなどを表示し、視線でそれを選択・操作することにより、コンピュータを利用できるようにしている。
【0003】
このような視線インタフェースを実用的なものとするためには、利用者に負担をかけずに、かつ、頭部に特別な装置を装着することなく利用者の視線方向を測定できるようにする技術の構築が叫ばれている。
【0004】
【従来の技術】
従来の技術では、利用者からある程度離れた距離(50cm〜100cm 程度)の位置に近赤外線光源およびカメラを設置して、角膜表面における近赤外線光源の反射光(プルキニエ像)および瞳孔を撮影し、その方向から利用者の視線方向を算出するようにしていた。
【0005】
視線方向を算出するためには、3次元空間上における視線ベクトルおよび視線ベクトルの始点(以下、基準点と称する)を得る必要がある。
【0006】
従来の技術では、基準点については、プルキニエ像の位置から算出したり、あるいは利用者の頭部や眼鏡にマーカーを装着し、マーカーからの相対位置を与えることにより算出する技術が用いられてきた。また視線ベクトルについては、例えば3次元空間における瞳孔とプルキニエ像を求め、それらの位置から算出するという技術が用いられてきた。
【0007】
なお、以下の説明では、視線測定装置において視線補正手段を用いずにシステムが算出した視線方向を「システム算出視線方向」と呼び、利用者が実際に見ている方向を「注視方向」と呼ぶ。
【0008】
システム算出視線方向はそのままでは注視方向とのずれが大きいため、個人キャリブレーションによってシステム算出視線方向を注視方向に一致させるための処理をおこなっている。以下の説明では、個人キャリブレーション後の視線方向を「システム補正視線方向」と呼ぶ。
【0009】
【発明が解決しようとする課題】
システム補正視線方向は、利用者が眼球を上下左右に動かしてあちこちを見る場合のいずれの場合においても、注視方向と一致している必要がある。しかしながら、従来の技術では以下の問題があった。
【0010】
(1)システム算出視線方向が注視方向と大きくずれている場合、想定した補正処理では十分に補正することができず、特定の方向に対しては正しく補正できるものの、別の方向に対しては十分な補正がおこなわれず、大きな測定誤差が発生する場合があった。
【0011】
(2)測定開始直後は正しく補正されるものの、利用者の眼球位置が変化した場合に十分な補正がおこなわれず、測定誤差が拡大する場合があった。
【0012】
これら測定誤差に関する問題は、精度の高い視線測定をおこなう上で大きな問題となっていた。
【0013】
これらの測定誤差の大きな原因の一つとして、利用者の角膜表面における屈折がある。この屈折を考慮しないと、外界から観測した瞳孔の位置が実際の瞳孔の位置に対してずれを生じる。
【0014】
従来の技術では、この屈折を考慮していないことから、外界から観測した瞳孔の位置を利用して視線を算出した場合、システム算出視線方向に必ず測定誤差が発生した。
【0015】
特に、カメラの光軸方向に対して利用者の眼球方向が変化した場合、角膜表面における光の入射角が変化するため、瞳孔の位置のずれの割合が変化し、ずれが一定でなくなる。このずれを補正するためには2次関数以上の高次関数を利用した個人キャリブレーションをおこなう必要があるが、そのとき、利用者によっては想定した関数でずれを正しく近似できず、上記の問題(1)および(2)が発生した。
【0016】
従来技術における異なるアプローチとして、「Sheng-Wen Shih,Yu-Te Wu and Jin Liu:"A Calibration-Free Gaze Tracking Technique", Proceedings of the International Conference on Pattern Recognition (ICPR'00),2000 」で報告されているように、外界から複数のカメラおよび光源を用いて眼球の形状を計測し、屈折補正を考慮した上で、キャリブレーションをおこなわずに視線計測をおこなう手法が提案されている。
【0017】
この手法は、外部からの眼球形状の測定にたよるため、視線方向を角膜曲率中心と瞳孔中心とを結ぶベクトルと仮定することになっている。しかしながら真の視線ベクトルは、網膜上の中心窩と外部の視点とを結ぶベクトルであり、従ってこれを測定する方法は知られていない。
【0018】
本発明はかかる事情に鑑みてなされたものであって、利用者に負担をかけずに、かつ、頭部に特別な装置を装着することなく利用者の注視方向を測定できるようにする新たな視線測定技術の構築を目的とする。
【0019】
【課題を解決するための手段】
この目的を達成するために、本発明の視線測定装置では、▲1▼利用者の眼球を撮影する眼球撮影手段と、▲2▼眼球撮影手段の撮影した画像から、見かけの瞳孔位置を検出する瞳孔位置検出手段と、▲3▼瞳孔位置検出手段の検出した見かけの瞳孔位置から、角膜における屈折を考慮することで、実際の瞳孔位置を推定(補正)する瞳孔位置推定手段と、▲4▼眼球撮影手段の撮影した画像から、角膜表面における外部光の反射像を検出する反射像検出手段と、▲5▼瞳孔位置推定手段の推定した瞳孔位置と、反射像検出手段の検出した反射像とから、利用者の視線を算出する視線算出手段と、▲6▼複数の基準点の座標と、それを利用者が注視したときに視線算出手段により算出される視線とから、その利用者に適用される視線の変換規約を算出する個人別パラメータ算出手段と、▲7▼視線算出手段の算出した視線を、個人別パラメータ算出手段の算出した変換規約を使って利用者に合わせて補正する視線補正手段と、▲8▼個人別パラメータ算出手段の算出した変換規約を外部記憶装置に保存し、次に同じ利用者が測定対象となるときに、その変換規約をその外部記憶装置から読み出す個人別パラメータ保存手段とを備えるように構成する。
【0020】
このように構成される本発明の視線測定装置では、瞳孔位置検出手段により見かけの瞳孔位置が検出されると、瞳孔位置推定手段は、眼球撮影手段からその見かけの瞳孔位置へ向かう光の屈折方向を算出して、その屈折方向上に位置し、かつ、角膜曲率中心から規定の距離の所に位置する輪郭座標を求めることで、実際の瞳孔位置を推定する。
【0021】
一方、反射像検出手段は、角膜表面における外部光の反射像を検出し、これにより、眼球撮影手段の中心とその反射像とを通る直線上で、かつ、その反射像よりも角膜曲率半径だけ先に位置する角膜曲率中心の位置が検出されることになる。
【0022】
これから、視線算出手段は、その検出された実際の瞳孔位置から瞳孔中心を検出して、その検出した瞳孔中心とその検出された角膜曲率中心とを結ぶ直線に従って、利用者の視線を算出する。
【0023】
この視線の算出を受けて、個人別パラメータ算出手段は、複数の基準点の座標と、それを利用者が注視したときに算出される視線とから、その利用者に適用される視線の変換規約を算出するので、視線補正手段は、算出された視線を、この算出された変換規約を使って利用者に合わせて補正する。
【0024】
このようにして、本発明の視線測定装置では、外界から観察した瞳孔位置から実際の瞳孔を推定し、その推定した瞳孔位置から視線方向を算出する。そして、その算出した視線方向に対して、眼球の中心窩と外部の視点とが一致するように個人別に補正をおこなう。
【0025】
その結果、本発明の視線測定装置によれば、外界から観測した瞳孔の位置が実際の瞳孔の位置に対してずれていることにより発生する測定誤差が解消され、測定誤差の発生しにくい視線測定が可能となる。
【0026】
【発明の実施の形態】
以下、図面を用いて本発明の実施の形態について説明する。
【0027】
図1に、本発明の視線測定装置の一実施形態例を図示する。
【0028】
この図に示すように、本発明の視線測定装置は、眼球撮影手段12を構成する近赤外線照射手段1と、眼球撮影手段12を構成する眼球撮影用カメラ2と、瞳孔輪郭検出手段3と、瞳孔輪郭補正手段4と、プルキニエ像検出手段5と、瞳孔中心算出手段6と、視線ベクトル算出手段7と、視線補正手段8と、個人別パラメータ算出手段9と、個人別パラメータ保存手段10と、外部記憶装置11とを備える。
【0029】
ここで、図中に示すように、利用者の眼球は眼球撮影用カメラ2の前方に位置するものとする。
【0030】
近赤外線照射手段1では、人の目に感じにくい750nm程度の近赤外線の点光源あるいは一定面積を持つ面光源から、近赤外線を人の眼球方向に向けて照射する。
【0031】
眼球撮影用カメラ2では、近赤外線が照射された眼球を撮影するために、近赤外光を撮影可能なCCD等を内蔵する。
【0032】
この眼球撮影用カメラ2で撮影される眼球像には、図2に示すように、瞳孔輪郭21およびプルキニエ像22が含まれる。
【0033】
瞳孔輪郭検出手段3では、眼球撮影用カメラ2で撮影された画像から瞳孔を検出し、その輪郭を求める。
【0034】
瞳孔輪郭補正手段4では、瞳孔輪郭検出手段3によって検出された瞳孔輪郭について、角膜表面における瞳孔の屈折を補正し、実際の瞳孔輪郭位置を推定する。
【0035】
プルキニエ像検出手段5では、眼球撮影用カメラ2によって撮影された眼球像からプルキニエ像22を検出する。それと同時に、プルキニエ像検出手段5では、検出されたプルキニエ像22から、3次元空間中のプルキニエ像座標および角膜曲率中心座標を求める。
【0036】
瞳孔中心算出手段6では、瞳孔輪郭補正手段4によって得られた瞳孔輪郭座標から、瞳孔中心を算出(検出)する。
【0037】
視線ベクトル算出手段7では、プルキニエ像検出手段5で検出した角膜曲率中心座標と、瞳孔中心算出手段6で検出した瞳孔中心とを用いて、視線方向を算出する。
【0038】
視線補正手段8では、視線ベクトル算出手段7によって算出された視線方向に対して、個人パラメータを用いて視線補正をおこなう。
【0039】
個人別パラメータ算出手段9では、視線補正手段8で利用する個人パラメータの算出をおこなう。
【0040】
個人別パラメータ保存手段10では、算出された個人パラメータを外部記憶装置11(ハードディスク、メモリなど)に記録し、必要に応じて外部記憶装置11から読み出す。
【0041】
以上に説明した各処理手段(近赤外線照射手段1および眼球撮影用カメラ2を除く)は、具体的にはコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供することができる。
【0042】
次に、これらの各処理手段について説明することで、本発明について詳細に説明する。
【0043】
(イ)瞳孔輪郭検出手段3における瞳孔輪郭の検出処理
図3に、瞳孔輪郭検出手段3における瞳孔輪郭の検出処理の流れ図を示す。
【0044】
瞳孔輪郭検出手段3は、図3に示すように、まず最初に、眼球撮影用カメラ2で撮影した画像から、周辺より暗い領域を連結することでセグメント化をおこなう(301の状態)。
【0045】
続いて、セグメント化された各領域において各領域の形状を調べ、瞳孔に類似した形状の領域を候補として列挙する(302の状態)。
【0046】
続いて、列挙された候補領域から、瞳孔の形状にもっとも近い領域を選択して瞳孔領域とする(303の状態)。
【0047】
続いて、得られた瞳孔領域に対してエッジ検出をおこない、瞳孔の輪郭座標pi (i=1〜n)を求める(304の状態)。このとき求める瞳孔輪郭の個数nは多いほど精度が高くなるが、5から40点ほど求めればよい。
【0048】
このようにして、瞳孔輪郭検出手段3は、瞳孔輪郭を検出するように処理するのである。
【0049】
(ロ)プルキニエ像検出手段5におけるプルキニエ像の検出処理
図4に、プルキニエ像検出手段5におけるプルキニエ像の検出処理の流れ図を示す。
【0050】
プルキニエ像検出手段5は、図4に示すように、まず最初に、あらかじめ定めた、人の角膜曲率半径L、瞳孔半径R、角膜曲率中心から瞳孔中心までの距離Mを取得する(501の状態)。
【0051】
すなわち、あらかじめ、図5中に示す角膜曲率半径Lと、瞳孔半径Rと、角膜曲率中心から瞳孔中心までの距離Mとが得られているので、それらを取得するのである。
【0052】
ここで、後述する個人別キャリブレーションによって、最終的に視線ベクトルが補正されることになるので、このとき取得するL,R,Mについては、視線を測定する本人のものである必要はなく、例えば日本人の平均値とか、男性の平均値とか、女性の平均値といったような平均的な値を取得すれば足りる。
【0053】
続いて、眼球撮影用カメラ2で撮影した画像について、瞳孔輪郭検出手段3で求めた瞳孔位置付近に分布する輝度の高い領域を、プルキニエ像の候補領域として列挙する(502の状態)。
【0054】
続いて、列挙された候補領域の中から、あらかじめ定めた形状および大きさにもっとも近い領域をプルキニエ像であると定める(503の状態)。
【0055】
続いて、3次元空間におけるプルキニエ像の座標を求める(504の状態)。画像上のプルキニエ像位置から3次元空間におけるプルキニエ像の座標Uを求めるには、2台以上の眼球撮影用カメラ2を利用してステレオ計測する方法や、1台の眼球撮影用カメラ2を使って焦点位置から距離を算出する方法などを用いることになる。
【0056】
続いて、3次元空間上の角膜曲率中心Eを算出する(505の状態)。眼球撮影用カメラ2のレンズ中心からプルキニエ像を通る直線を考えたとき、プルキニエ像の位置Uより角膜曲率半径Lだけ先の位置が3次元空間中の角膜曲率中心座標Eとなるので、その関係に従って角膜曲率中心Eを算出するのである。
【0057】
このようにして、プルキニエ像検出手段5は、プルキニエ像を検出して、それを使って、角膜曲率中心Eの座標を算出するように処理するのである。
【0058】
(ハ)瞳孔輪郭補正手段4における瞳孔輪郭の補正処理
瞳孔輪郭補正手段4では、瞳孔輪郭検出手段3で検出された瞳孔輪郭座標pi から正しい瞳孔輪郭座標p’i を推定する処理を行う。
【0059】
人の角膜表面では光の屈折が発生するため、眼球撮影用カメラ2で撮影した瞳孔像は実際の瞳孔像位置とずれた位置にある。そのため、眼球撮影用カメラ2でで撮影した瞳孔像から視線方向を算出すると、実際の視線方向とはずれた方向に視線が算出される。
【0060】
そこで、瞳孔輪郭補正手段4では、角膜表面での屈折を考慮した補正をおこなうことで、正しい瞳孔輪郭座標を推定する処理を行う。
【0061】
図6に、瞳孔輪郭補正手段4における瞳孔輪郭の補正処理の流れ図を示す。また、図7に、角膜表面における屈折の模式図を示し、図8に、瞳孔断面の模式図を示す。
【0062】
この瞳孔輪郭の補正処理では、眼球撮影用カメラ2で撮影されたプルキニエ像と瞳孔輪郭像とが同一平面上に含まれていることを利用する。
【0063】
瞳孔輪郭補正手段4では、図6に示すように、まず最初に、3次元空間におけるプルキニエ像の座標Uから、プルキニエ像および瞳孔輪郭像が含まれる平面Sを求める(401の状態)。すなわち、図7及び図8に示す平面Sを求めるのである。
【0064】
続いて、眼球撮影用カメラ2から平面Sに含まれる瞳孔輪郭像へ向けた直線と、角膜表面との交点Qを求める(402の状態)。
【0065】
この直線の方向ベクトルを<q>と表すならば、図8に示すように、ベクトル<q>と角膜表面との交点Qを求めるのである。このとき、主に屈折が発生するのはこのQの位置である。
【0066】
続いて、角膜曲率中心EからQまでの方向ベクトル<e>を求める(403の状態)。すなわち、図7に示すように、角膜曲率中心EからQまでの方向ベクトル<e>を求めるのである。
【0067】
Qにおける屈折は、ベクトル<e>が法線ベクトルとなる平面に光が入射して発生した屈折であると考えることができる。
【0068】
そこで、続いて、角膜外にある空気の屈折率n1 と角膜内の房水における屈折率n2 とを使って、ベクトル<e>およびベクトル<q>から、屈折後の方向ベクトル<q’>を求める(404の状態)。すなわち、図8に示すように、屈折後の方向ベクトル<q’>を求めるのである。
【0069】
続いて、角膜曲率中心Eから瞳孔輪郭までの距離Nを、瞳孔半径Rと角膜曲率中心Eから瞳孔中心までの距離Mとを使って、
N=(M2 +R2 1/2
に従って算出して、図8に示すように、屈折後の方向ベクトル<q’>上にあって、角膜曲率中心Eからの距離がこの距離Nである点を屈折補正後の瞳孔輪郭座標p’i として算出する(405の状態)。
【0070】
このようにして、瞳孔輪郭補正手段4は、正しい瞳孔輪郭座標p’i を推定するように処理するのである。
【0071】
(ニ)視線ベクトル算出手段7における視線ベクトルの算出処理
視線ベクトル算出手段7では、3次元座標における角膜曲率中心Eの位置(プルキニエ像の位置と角膜曲率半径とから求められる)と、瞳孔輪郭補正手段4で得られた補正済みの瞳孔輪郭座標の集合{p’i }とから、視線ベクトルを算出する処理を行う。
【0072】
図9に、視線ベクトル算出手段7における視線ベクトルの算出処理の流れ図を示す。
【0073】
視線ベクトル算出手段7では、図9に示すように、まず最初に、補正済みの瞳孔輪郭座標の集合{p’i }から、3次元空間における瞳孔中心Pを、例えば楕円近似などの手法によって求める(701の状態)。
【0074】
続いて、3次元空間において、瞳孔中心Pおよび角膜曲率中心Eを通る方向ベクトル<g>を求める(702の状態)。
【0075】
瞳孔中心Pの位置ベクトルを<P>、角膜曲率中心Eの位置ベクトルを<E>で表すならば、ベクトル<g>は、
<g>=<P>−<E>
で得られる。この手順で得られた方向ベクトル<g>を、視線ベクトルと定める。
【0076】
さらに、プルキニエ像Uの位置ベクトルを<U>で表すならば、視線方向を表す直線Hは、
<U>+m・<g>
と定められる。但し、mはパラメータ(m>0)であり、mを指定することで、直線H上の任意の点が得られる。
【0077】
このようにして、視線ベクトル算出手段7は、補正済みの瞳孔輪郭座標から得られる瞳孔中心と角膜曲率中心Eとを通る方向ベクトルに従って、視線方向Hを算出するように処理するのである。
【0078】
(ホ)視線補正手段8における視線ベクトルの補正処理
視線補正手段8では、視線ベクトル算出手段7で得られた視線方向Hから視線を求め、さらに個人パラメータによる補正をおこなう。
【0079】
利用者が見ている先の平面Tと、視線方向Hの交点を視線V(x,y,z)と定める。このとき、例えば前方のディスプレイを見ているときの視線Vを求める場合には、ディスプレイ表面を含む平面をTで表し、TとHとの交点におけるパラメータmを求めればよい。
【0080】
以下、このように得られた視線Vに対して、補正後の視線Wを求める一実施形態例を示す。
【0081】
補正後の視線Wは、例えば元の視線Vを移動および縦横のスケーリングすることによって得られる。
【0082】
そこで、
【0083】
【数1】

Figure 0003711053
【0084】
で定義される視線Vの位置ベクトルの斉次ベクトルを、
【0085】
【数2】
Figure 0003711053
【0086】
で表し、
【0087】
【数3】
Figure 0003711053
【0088】
で定義される補正後の視線Wの位置ベクトルの斉次ベクトルを、
【0089】
【数4】
Figure 0003711053
【0090】
で表す。
【0091】
このとき、個人別パラメータを斉次行列Hで表すと、補正後の視線Wの位置ベクトルの斉次ベクトルは、
【0092】
【数5】
Figure 0003711053
【0093】
で求められる。
【0094】
ただし、補正後の視線Wが元の視線Vを移動および縦横のスケーリングすることによって得られることから、斉次行列Hは、
【0095】
【数6】
Figure 0003711053
【0096】
となる。
【0097】
このようにして得られた〔数5〕式から、補正後の視線Wが求められることになる。
【0098】
個人別パラメータHは、利用者が最初に本発明を利用する時点で、個人別パラメータ算出手段9によって求められて、個人別パラメータ保存手段10によってディスクやメモリなどの外部記憶装置11に保存される。
【0099】
そして、次に同一の人が本発明を利用するときに、外部記憶装置11に保存された個人別パラメータHが読み出されることで、新たに個人別パラメータを求めることなく視線測定が可能になる。
【0100】
個人別パラメータHは、利用者が複数の基準点を順次注視するときに、そのときに見ていた基準点の座標と、実際に得られた視線データとを用いて算出することができる。例えば2点以上の基準点を見たときにおける基準点の座標と、基準点を見たときの視線とから最小2乗法などによって個人別パラメータHを求めればよい。
【0101】
図10に、個人パラメータHの算出方法の一例を示す。
【0102】
利用者805がディスプレイ802上に配置された2点以上のn個の基準点801を注視したときに、そのとき得られた視線データを注視点804とする。このとき、i番目の基準点の座標をMi (x,y)、そのときの視線データをGi (x,y)とおく。
【0103】
このとき、視線データのX座標のみに注目すると、
1 (x)=G1 (x)・a1 +a3 +E1 (x)
2 (x)=G2 (x)・a1 +a3 +E2 (x)



n (x)=Gn (x)・a1 +a3 +En (x)
と示せる。ただし、Ei (x)はi番目の基準点を見た時のX方向の誤差成分である。
【0104】
このとき、誤差成分Ei (x)の二乗和
【0105】
【数7】
Figure 0003711053
【0106】
が最小となるようなa1 およびa3 を最小二乗法によって求める。
【0107】
Y座標についても同様に算出することで、a2 およびa4 が得られる。
【0108】
このようにして、個人別パラメータ算出手段9は、個人別パラメータHを算出し、これを受けて、視線補正手段8は、〔数5〕式に従って、視線ベクトル算出手段7で得られた視線方向に対して個人別パラメータHによる補正をおこなうように処理するのである。
【0109】
【発明の効果】
以上説明したように、本発明では、人の瞳孔およびプルキニエ像を検出し、屈折の補正をおこない視線方向を算出する。さらに、個人別キャリブレーションをおこない視線方向を個人毎に補正する。
【0110】
その結果、高い精度で視線測定が可能となり、例えば、画面上に各点間の距離が均等な格子状に配置した複数の点を注視した場合に、測定して得られたシステム算出視線方向も各点間の距離が均等な格子状となる。従って、補正処理においては注視方向の一次変換をおこなうだけで、精度の高い視線位置が得られる。
【0111】
そして、視線の測定精度に関して、画面上の特定の位置では測定精度が高いものの、別の点では測定精度が低くなるという問題も回避される。
【0112】
また、個人別パラメータは一度算出しておけば、同一の利用者において再利用可能であるため、毎回、視線測定前にキャリブレーションをする手間を省略することが可能である。
【図面の簡単な説明】
【図1】本発明の一実施形態例である。
【図2】眼球撮影用カメラで撮影した眼球の模式図である。
【図3】瞳孔輪郭検出手段の処理の流れ図である。
【図4】プルキニエ像検出手段の処理の流れ図である。
【図5】眼球の模式図である。
【図6】瞳孔輪郭補正手段の処理の流れ図である。
【図7】角膜表面における屈折の模式図である。
【図8】瞳孔断面の模式図である。
【図9】視線ベクトル算出手段の処理の流れ図である。
【図10】個人別パラメータの算出処理の説明図である。
【符号の説明】
1 近赤外線照射手段
2 眼球撮影用カメラ
3 瞳孔輪郭検出手段
4 瞳孔輪郭補正手段
5 プルキニエ像検出手段
6 瞳孔中心算出手段
7 視線ベクトル算出手段
8 視線補正手段
9 個人別パラメータ算出手段
10 個人別パラメータ保存手段
11 外部記憶装置
12 眼球撮影手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a line-of-sight measurement apparatus and method for measuring a gaze direction of a user, a line-of-sight measurement program used for realizing the line-of-sight measurement method, and a recording medium on which the program is recorded. Gaze measurement device and method for measuring gaze direction of user without putting special device on head and gaze measurement program used for realizing gaze measurement method and the same The present invention relates to a recording medium on which a program is recorded.
[0002]
For the purpose of making it possible for a person with a handicap in the body to use a computer, research on a gaze interface that uses a gaze to operate a computer is underway. In this line-of-sight interface, for example, menus, buttons, icons, and the like are displayed on a computer screen, and the computer can be used by selecting and operating the line of sight.
[0003]
In order to make such a line-of-sight interface practical, it is possible to measure the user's line-of-sight direction without placing a burden on the user and without wearing a special device on the head. Is being screamed.
[0004]
[Prior art]
In the conventional technology, a near-infrared light source and a camera are installed at a position some distance away from the user (about 50 cm to 100 cm), and the reflected light (Purkinje image) and pupil of the near-infrared light source on the cornea surface are photographed. The user's line-of-sight direction is calculated from the direction.
[0005]
In order to calculate the line-of-sight direction, it is necessary to obtain a line-of-sight vector and a start point of the line-of-sight vector (hereinafter referred to as a reference point) in a three-dimensional space.
[0006]
In the prior art, a technique has been used for calculating the reference point by calculating from the position of the Purkinje image, or by attaching a marker to the user's head or glasses and giving a relative position from the marker. . For the line-of-sight vector, for example, a technique has been used in which a pupil and a Purkinje image in a three-dimensional space are obtained and calculated from their positions.
[0007]
In the following description, the line-of-sight direction calculated by the system without using the line-of-sight correction unit in the line-of-sight measurement device is referred to as the “system-calculated line-of-sight direction”, and the direction actually viewed by the user is referred to as the “gaze direction”. .
[0008]
Since the system calculated line-of-sight direction has a large deviation from the gaze direction as it is, processing for matching the system calculated line-of-sight direction to the gaze direction is performed by personal calibration. In the following description, the line-of-sight direction after personal calibration is referred to as “system-corrected line-of-sight direction”.
[0009]
[Problems to be solved by the invention]
The system-corrected line-of-sight direction needs to match the gaze direction in any case where the user moves the eyeball up, down, left, or right to look around. However, the conventional technique has the following problems.
[0010]
(1) When the system-calculated line-of-sight direction deviates significantly from the gaze direction, it cannot be corrected sufficiently with the assumed correction process, and it can be corrected correctly for a specific direction, but for other directions In some cases, sufficient correction is not performed and a large measurement error occurs.
[0011]
(2) Although the correction is correctly performed immediately after the start of measurement, when the user's eyeball position is changed, sufficient correction is not performed, and the measurement error may increase.
[0012]
These problems related to measurement errors have become major problems in performing high-precision line-of-sight measurements.
[0013]
One of the major causes of these measurement errors is refraction at the user's cornea surface. If this refraction is not taken into account, the position of the pupil observed from the outside will be deviated from the actual position of the pupil.
[0014]
Since the conventional technique does not consider this refraction, when the line of sight is calculated using the position of the pupil observed from the outside, a measurement error always occurs in the system calculated line of sight.
[0015]
In particular, when the user's eyeball direction changes with respect to the optical axis direction of the camera, the incident angle of light on the corneal surface changes, so the rate of pupil position shift changes, and the shift is not constant. In order to correct this deviation, it is necessary to perform personal calibration using a higher-order function of a quadratic function or more, but at that time, the user cannot approximate the deviation correctly with the assumed function, and the above problem (1) and (2) occurred.
[0016]
A different approach in the prior art is reported in "Sheng-Wen Shih, Yu-Te Wu and Jin Liu:" A Calibration-Free Gaze Tracking Technique ", Proceedings of the International Conference on Pattern Recognition (ICPR'00), 2000". As described above, a method has been proposed in which the shape of the eyeball is measured from the outside using a plurality of cameras and light sources, and the line of sight is measured without performing calibration after taking into account refraction correction.
[0017]
Since this method is based on the measurement of the eyeball shape from the outside, it is assumed that the line-of-sight direction is a vector connecting the corneal curvature center and the pupil center. However, the true line-of-sight vector is a vector that connects the fovea on the retina and an external viewpoint, and a method for measuring this is not known.
[0018]
The present invention has been made in view of such circumstances, and is a new device that can measure a user's gaze direction without burdening the user and without wearing a special device on the head. The purpose is to build gaze measurement technology.
[0019]
[Means for Solving the Problems]
In order to achieve this object, the eye gaze measuring apparatus of the present invention detects an apparent pupil position from (1) eyeball photographing means for photographing a user's eyeball and (2) an image photographed by the eyeball photographing means. Pupil position detection means, and (3) pupil position estimation means for estimating (correcting) the actual pupil position by considering refraction in the cornea from the apparent pupil position detected by the pupil position detection means, and (4) Reflected image detecting means for detecting a reflected image of external light on the cornea surface from an image photographed by the eyeball photographing means, (5) the pupil position estimated by the pupil position estimating means, and the reflected image detected by the reflected image detecting means From the line-of-sight calculation means for calculating the line of sight of the user, and (6) the coordinates of a plurality of reference points and the line-of-sight calculated by the line-of-sight calculation means when the user gazes at the reference point. Gaze conversion rules An individual parameter calculating means for calculating the visual line; and (7) a visual line correcting means for correcting the visual line calculated by the visual line calculating means according to the user using the conversion rule calculated by the individual parameter calculating means; The conversion rule calculated by the individual parameter calculation means is stored in an external storage device, and the individual parameter storage means for reading the conversion rule from the external storage device when the same user is to be measured next. Configure.
[0020]
In the line-of-sight measurement device of the present invention configured as described above, when the apparent pupil position is detected by the pupil position detection unit, the pupil position estimation unit is configured to refract the light from the eyeball imaging unit toward the apparent pupil position. Is calculated and contour coordinates located at a prescribed distance from the center of corneal curvature are obtained, and the actual pupil position is estimated.
[0021]
On the other hand, the reflected image detecting means detects the reflected image of the external light on the cornea surface, and thereby, on the straight line passing through the center of the eyeball photographing means and the reflected image, and only by the corneal curvature radius than the reflected image. The position of the corneal curvature center located first is detected.
[0022]
From this, the line-of-sight calculation means detects the pupil center from the detected actual pupil position, and calculates the user's line of sight according to a straight line connecting the detected pupil center and the detected corneal curvature center.
[0023]
Upon receiving this gaze calculation, the individual parameter calculation means determines the gaze conversion rules applied to the user from the coordinates of the plurality of reference points and the gaze calculated when the user gazes at the reference point. Therefore, the line-of-sight correction means corrects the calculated line-of-sight according to the user using the calculated conversion rule.
[0024]
In this way, in the gaze measurement apparatus of the present invention, the actual pupil is estimated from the pupil position observed from the outside, and the gaze direction is calculated from the estimated pupil position. Then, correction is performed for each individual so that the fovea of the eyeball and the external viewpoint coincide with the calculated line-of-sight direction.
[0025]
As a result, according to the line-of-sight measurement device of the present invention, the measurement error caused by the deviation of the pupil position observed from the outside world from the actual pupil position is eliminated, and the line-of-sight measurement is less likely to cause a measurement error. Is possible.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0027]
FIG. 1 illustrates an embodiment of a line-of-sight measurement apparatus according to the present invention.
[0028]
As shown in this figure, the line-of-sight measurement device of the present invention includes a near-infrared irradiation means 1 constituting an eyeball photographing means 12, an eyeball photographing camera 2 constituting a eyeball photographing means 12, a pupil contour detecting means 3, Pupil contour correcting means 4, Purkinje image detecting means 5, pupil center calculating means 6, line-of-sight vector calculating means 7, line-of-sight correcting means 8, individual parameter calculating means 9, individual parameter storing means 10, And an external storage device 11.
[0029]
Here, it is assumed that the user's eyeball is located in front of the eyeball camera 2 as shown in the figure.
[0030]
The near-infrared irradiation means 1 irradiates near-infrared rays toward the human eyeball from a near-infrared point light source of about 750 nm or a surface light source having a certain area that is difficult to be felt by human eyes.
[0031]
The eye photography camera 2 incorporates a CCD or the like capable of photographing near infrared light in order to photograph the eyeball irradiated with near infrared light.
[0032]
The eyeball image photographed by the eyeball photographing camera 2 includes a pupil contour 21 and a Purkinje image 22 as shown in FIG.
[0033]
The pupil contour detecting means 3 detects the pupil from the image photographed by the eyeball photographing camera 2 and obtains its contour.
[0034]
The pupil contour correcting means 4 corrects the refraction of the pupil on the corneal surface for the pupil contour detected by the pupil contour detecting means 3, and estimates the actual pupil contour position.
[0035]
The Purkinje image detection means 5 detects the Purkinje image 22 from the eyeball image photographed by the eyeball photographing camera 2. At the same time, the Purkinje image detection means 5 obtains the Purkinje image coordinates and the corneal curvature center coordinates in the three-dimensional space from the detected Purkinje image 22.
[0036]
The pupil center calculation means 6 calculates (detects) the pupil center from the pupil contour coordinates obtained by the pupil contour correction means 4.
[0037]
The line-of-sight vector calculation means 7 calculates the line-of-sight direction using the corneal curvature center coordinates detected by the Purkinje image detection means 5 and the pupil center detected by the pupil center calculation means 6.
[0038]
The line-of-sight correction unit 8 performs line-of-sight correction on the line-of-sight direction calculated by the line-of-sight vector calculation unit 7 using personal parameters.
[0039]
The individual parameter calculation means 9 calculates personal parameters used by the line-of-sight correction means 8.
[0040]
The individual parameter storage means 10 records the calculated personal parameters in the external storage device 11 (hard disk, memory, etc.) and reads them from the external storage device 11 as necessary.
[0041]
Each processing means described above (except for the near-infrared irradiation means 1 and the eyeball camera 2) can be specifically realized by a computer program, and this computer program is recorded on a recording medium such as a semiconductor memory. Can be provided.
[0042]
Next, the present invention will be described in detail by explaining each of these processing means.
[0043]
(A) Pupil Contour Detection Processing in Pupil Contour Detection Unit 3 FIG. 3 shows a flowchart of pupil contour detection processing in the pupil contour detection unit 3.
[0044]
As shown in FIG. 3, the pupil contour detection means 3 first performs segmentation by connecting regions darker than the periphery from the image captured by the eyeball camera 2 (state 301).
[0045]
Subsequently, the shape of each region is examined in each segmented region, and regions having shapes similar to the pupil are listed as candidates (state 302).
[0046]
Subsequently, an area closest to the shape of the pupil is selected from the listed candidate areas to be a pupil area (state 303).
[0047]
Subsequently, edge detection is performed on the obtained pupil region, and the contour coordinates p i (i = 1 to n) of the pupil are obtained (state 304). As the number n of pupil contours to be obtained increases, the accuracy increases. However, it is sufficient to obtain about 5 to 40 points.
[0048]
In this way, the pupil contour detection means 3 performs processing so as to detect the pupil contour.
[0049]
(B) Purkinje image detection processing in the Purkinje image detection means 5 FIG. 4 shows a flowchart of the Purkinje image detection processing in the Purkinje image detection means 5.
[0050]
As shown in FIG. 4, the Purkinje image detection means 5 first acquires a predetermined human corneal curvature radius L, pupil radius R, and distance M from the corneal curvature center to the pupil center (state 501). ).
[0051]
That is, the corneal curvature radius L, the pupil radius R, and the distance M from the corneal curvature center to the pupil center shown in FIG. 5 are obtained in advance, and these are acquired.
[0052]
Here, since the line-of-sight vector is finally corrected by individual calibration described later, L, R, and M acquired at this time do not need to be those of the person who measures the line-of-sight, For example, it is sufficient to obtain an average value such as a Japanese average value, a male average value, or a female average value.
[0053]
Subsequently, for the image captured by the eyeball camera 2, areas with high luminance distributed in the vicinity of the pupil position obtained by the pupil contour detection means 3 are listed as candidate areas for the Purkinje image (state 502).
[0054]
Subsequently, an area closest to a predetermined shape and size is determined to be a Purkinje image from the listed candidate areas (state 503).
[0055]
Subsequently, the coordinates of the Purkinje image in the three-dimensional space are obtained (state 504). In order to obtain the coordinates U of the Purkinje image in the three-dimensional space from the position of the Purkinje image on the image, a method of performing stereo measurement using two or more eyeball cameras 2 or one eyeball camera 2 is used. Thus, a method for calculating the distance from the focal position is used.
[0056]
Subsequently, the corneal curvature center E in the three-dimensional space is calculated (state 505). Considering a straight line passing through the Purkinje image from the lens center of the eyeball camera 2, the position ahead of the position U of the Purkinje image by the corneal curvature radius L becomes the corneal curvature central coordinate E in the three-dimensional space. Accordingly, the corneal curvature center E is calculated.
[0057]
In this way, the Purkinje image detection means 5 detects the Purkinje image and uses it to process so as to calculate the coordinates of the corneal curvature center E.
[0058]
(C) Pupil contour correction processing in the pupil contour correcting means 4 The pupil contour correcting means 4 performs processing for estimating the correct pupil contour coordinates p ′ i from the pupil contour coordinates p i detected by the pupil contour detecting means 3.
[0059]
Since light refraction occurs on the surface of the human cornea, the pupil image captured by the eyeball camera 2 is shifted from the actual pupil image position. Therefore, when the line-of-sight direction is calculated from the pupil image captured by the eyeball camera 2, the line-of-sight is calculated in a direction deviating from the actual line-of-sight direction.
[0060]
Therefore, the pupil contour correcting unit 4 performs a process of estimating correct pupil contour coordinates by performing correction in consideration of refraction on the corneal surface.
[0061]
FIG. 6 shows a flowchart of pupil contour correction processing in the pupil contour correcting means 4. FIG. 7 shows a schematic diagram of refraction on the corneal surface, and FIG. 8 shows a schematic diagram of a pupil cross section.
[0062]
In this pupil contour correction process, the fact that the Purkinje image photographed by the eyeball camera 2 and the pupil contour image are included in the same plane is used.
[0063]
As shown in FIG. 6, the pupil contour correcting unit 4 first obtains a plane S including the Purkinje image and the pupil contour image from the coordinates U of the Purkinje image in the three-dimensional space (state 401). That is, the plane S shown in FIGS. 7 and 8 is obtained.
[0064]
Subsequently, an intersection point Q between the straight line directed from the eyeball camera 2 toward the pupil contour image included in the plane S and the corneal surface is obtained (state 402).
[0065]
If the direction vector of this straight line is represented as <q>, as shown in FIG. 8, the intersection point Q between the vector <q> and the corneal surface is obtained. At this time, refraction occurs mainly at the position of Q.
[0066]
Subsequently, a direction vector <e> from the corneal curvature center E to Q is obtained (state 403). That is, as shown in FIG. 7, the direction vector <e> from the corneal curvature center E to Q is obtained.
[0067]
The refraction at Q can be considered as the refraction generated by the incidence of light on a plane where the vector <e> is a normal vector.
[0068]
Therefore, subsequently, using the refractive index n 1 of the air outside the cornea and the refractive index n 2 of the aqueous humor in the cornea, from the vector <e> and the vector <q>, a directional vector <q ′ after refraction. > Is obtained (state 404). That is, as shown in FIG. 8, the direction vector <q ′> after refraction is obtained.
[0069]
Subsequently, using the distance N from the corneal curvature center E to the pupil contour, the pupil radius R and the distance M from the corneal curvature center E to the pupil center,
N = (M 2 + R 2 ) 1/2
As shown in FIG. 8, a point on the directional vector <q ′> after refraction and having a distance N from the corneal curvature center E is the pupil outline coordinate p ′ after refraction correction. i is calculated (state 405).
[0070]
In this way, the pupil contour correcting means 4 performs processing so as to estimate the correct pupil contour coordinate p ′ i .
[0071]
(D) Line-of-sight vector calculation processing in line-of-sight vector calculation means 7 In line-of-sight vector calculation means 7, the position of the corneal curvature center E in three-dimensional coordinates (obtained from the position of the Purkinje image and the corneal curvature radius) and pupil contour correction From the corrected pupil outline coordinate set {p ′ i } obtained by the means 4, a process of calculating a line-of-sight vector is performed.
[0072]
FIG. 9 shows a flow chart of the gaze vector calculation process in the gaze vector calculation means 7.
[0073]
As shown in FIG. 9, the line-of-sight vector calculation means 7 first obtains the pupil center P in the three-dimensional space from the corrected set of pupil contour coordinates {p ′ i } by a technique such as ellipse approximation. (State of 701).
[0074]
Subsequently, a direction vector <g> passing through the pupil center P and the corneal curvature center E is obtained in the three-dimensional space (state 702).
[0075]
If the position vector of the pupil center P is represented by <P> and the position vector of the corneal curvature center E by <E>, the vector <g>
<G> = <P>-<E>
It is obtained by. The direction vector <g> obtained by this procedure is defined as a line-of-sight vector.
[0076]
Furthermore, if the position vector of the Purkinje image U is represented by <U>, the straight line H representing the line-of-sight direction is
<U> + m ・ <g>
It is determined. However, m is a parameter (m> 0), and an arbitrary point on the straight line H can be obtained by specifying m.
[0077]
In this way, the line-of-sight vector calculation means 7 performs processing so as to calculate the line-of-sight direction H according to the direction vector passing through the pupil center and the corneal curvature center E obtained from the corrected pupil contour coordinates.
[0078]
(E) Line-of-sight vector correction processing in the line-of-sight correction means 8 The line-of-sight correction means 8 obtains the line of sight from the line-of-sight direction H obtained by the line-of-sight vector calculation means 7, and further performs correction based on personal parameters.
[0079]
An intersection point between the plane T viewed by the user and the line-of-sight direction H is defined as a line of sight V (x, y, z). At this time, for example, when obtaining the line of sight V when looking at the front display, the plane including the display surface is represented by T, and the parameter m at the intersection of T and H may be obtained.
[0080]
Hereinafter, an exemplary embodiment for obtaining the corrected line of sight W with respect to the line of sight V thus obtained will be described.
[0081]
The corrected line of sight W is obtained, for example, by moving and scaling the original line of sight V in the vertical and horizontal directions.
[0082]
there,
[0083]
[Expression 1]
Figure 0003711053
[0084]
The homogeneous vector of the position vector of the line of sight V defined by
[0085]
[Expression 2]
Figure 0003711053
[0086]
Represented by
[0087]
[Equation 3]
Figure 0003711053
[0088]
A homogeneous vector of the position vector of the line of sight W after correction defined by
[0089]
[Expression 4]
Figure 0003711053
[0090]
Represented by
[0091]
At this time, if the individual parameter is represented by a homogeneous matrix H, the homogeneous vector of the position vector of the line of sight W after correction is
[0092]
[Equation 5]
Figure 0003711053
[0093]
Is required.
[0094]
However, since the corrected line of sight W is obtained by moving and scaling the original line of sight V, the homogeneous matrix H is
[0095]
[Formula 6]
Figure 0003711053
[0096]
It becomes.
[0097]
The corrected line of sight W is obtained from the equation [5] obtained in this way.
[0098]
The individual parameter H is obtained by the individual parameter calculation unit 9 when the user first uses the present invention, and is stored in the external storage device 11 such as a disk or a memory by the individual parameter storage unit 10. .
[0099]
Then, when the same person uses the present invention next time, the individual parameter H stored in the external storage device 11 is read, so that the line-of-sight measurement can be performed without obtaining a new individual parameter.
[0100]
The individual parameter H can be calculated using the coordinates of the reference point viewed at that time and the actually obtained line-of-sight data when the user sequentially looks at the plurality of reference points. For example, the individual parameter H may be obtained by the least square method or the like from the coordinates of the reference point when viewing two or more reference points and the line of sight when viewing the reference point.
[0101]
FIG. 10 shows an example of a method for calculating the personal parameter H.
[0102]
When the user 805 gazes two or more n reference points 801 arranged on the display 802, the line-of-sight data obtained at that time is set as a gaze point 804. At this time, the coordinates of the i-th reference point are set as M i (x, y), and the line-of-sight data at that time is set as G i (x, y).
[0103]
At this time, paying attention only to the X coordinate of the line-of-sight data,
M 1 (x) = G 1 (x) · a 1 + a 3 + E 1 (x)
M 2 (x) = G 2 (x) · a 1 + a 3 + E 2 (x)



M n (x) = G n (x) · a 1 + a 3 + E n (x)
It can be shown. E i (x) is an error component in the X direction when the i-th reference point is viewed.
[0104]
At this time, the sum of squares of the error component E i (x)
[Expression 7]
Figure 0003711053
[0106]
A 1 and a 3 are determined by the method of least squares so that is minimized.
[0107]
By calculating similarly for the Y coordinate, a 2 and a 4 can be obtained.
[0108]
In this way, the individual parameter calculation unit 9 calculates the individual parameter H, and in response to this, the gaze correction unit 8 obtains the gaze direction obtained by the gaze vector calculation unit 7 according to the formula [5]. Therefore, the correction is performed by the individual parameter H.
[0109]
【The invention's effect】
As described above, in the present invention, a human pupil and a Purkinje image are detected, refraction is corrected, and the line-of-sight direction is calculated. Further, individual calibration is performed to correct the line-of-sight direction for each individual.
[0110]
As a result, it is possible to measure the line of sight with high accuracy. The distance between each point is a uniform grid. Therefore, in the correction process, a highly accurate line-of-sight position can be obtained simply by performing primary conversion of the gaze direction.
[0111]
As for the measurement accuracy of the line of sight, the problem that the measurement accuracy is low at a specific position on the screen but is low at another point is also avoided.
[0112]
In addition, once the individual parameters are calculated, they can be reused by the same user, so that it is possible to omit the labor of calibration before the line-of-sight measurement every time.
[Brief description of the drawings]
FIG. 1 is an example of an embodiment of the present invention.
FIG. 2 is a schematic diagram of an eyeball imaged by an eyeball camera.
FIG. 3 is a flowchart of processing of pupil contour detection means.
FIG. 4 is a flowchart of processing performed by a Purkinje image detection unit.
FIG. 5 is a schematic diagram of an eyeball.
FIG. 6 is a flowchart of processing of a pupil contour correcting unit.
FIG. 7 is a schematic diagram of refraction at the corneal surface.
FIG. 8 is a schematic view of a pupil cross section.
FIG. 9 is a flowchart of processing of a line-of-sight vector calculating unit.
FIG. 10 is an explanatory diagram of individual parameter calculation processing;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Near-infrared irradiation means 2 Eyeball camera 3 Pupil outline detection means 4 Pupil outline correction means 5 Purkinje image detection means 6 Pupil center calculation means 7 Gaze vector calculation means 8 Gaze correction means 9 Individual parameter calculation means 10 Individual parameter storage Means 11 External storage device 12 Eyeball photographing means

Claims (13)

利用者の眼球を撮影する眼球撮影手段と、
上記眼球撮影手段の撮影した画像から、見かけの瞳孔位置を検出する瞳孔位置検出手段と、
上記瞳孔位置検出手段の検出した見かけの瞳孔位置から、角膜における屈折を考慮することで、実際の瞳孔位置を推定する瞳孔位置推定手段と、
上記眼球撮影手段の撮影した画像から、角膜表面における外部光の反射像を検出する反射像検出手段と、
上記瞳孔位置推定手段の推定した瞳孔位置と、上記反射像検出手段の検出した反射像とから、利用者の視線を算出する視線算出手段と、
上記視線算出手段の算出した視線を、その視線の算出対象となった利用者に合わせて補正する視線補正手段とを備えることを、
特徴とする視線測定装置。
Eyeball photographing means for photographing the user's eyeball;
Pupil position detection means for detecting an apparent pupil position from an image captured by the eyeball imaging means;
From the apparent pupil position detected by the pupil position detection means, considering the refraction in the cornea, the pupil position estimation means for estimating the actual pupil position;
A reflected image detecting means for detecting a reflected image of external light on the cornea surface from an image taken by the eyeball photographing means;
Line-of-sight calculating means for calculating the line of sight of the user from the pupil position estimated by the pupil position estimating means and the reflected image detected by the reflected image detecting means;
Line-of-sight correction means for correcting the line of sight calculated by the line-of-sight calculation means according to the user who is the calculation target of the line of sight,
Characteristic eye gaze measuring device.
請求項1記載の視線測定装置において、
上記眼球撮影手段は、
眼球の外部から近赤外線を照射する近赤外線照射手段と、
瞳孔を撮影するための近赤外線カメラとを備えることを、
特徴とする視線測定装置。
The line-of-sight measurement apparatus according to claim 1.
The eyeball photographing means includes
Near-infrared irradiation means for irradiating near-infrared rays from the outside of the eyeball;
Having a near-infrared camera for photographing the pupil,
Characteristic eye gaze measuring device.
請求項1又は2記載の視線測定装置において、
上記瞳孔位置推定手段は、上記眼球撮影手段から上記見かけの瞳孔位置へ向かう光の屈折方向を算出して、その屈折方向上に位置し、かつ、角膜曲率中心から規定の距離の所に位置する輪郭座標を求めることで、実際の瞳孔位置を推定することを、
特徴とする視線測定装置。
In the line-of-sight measurement apparatus according to claim 1 or 2,
The pupil position estimating means calculates a refraction direction of light directed from the eyeball photographing means to the apparent pupil position, is located on the refraction direction, and is located at a specified distance from the corneal curvature center. Estimating the actual pupil position by finding the contour coordinates,
Characteristic eye gaze measuring device.
請求項3記載の視線測定装置において、
上記瞳孔位置推定手段は、予め与えられる瞳孔半径と、予め与えられる角膜曲率中心と瞳孔中心との間の距離とを使って、角膜曲率中心と瞳孔輪郭との間の距離を算出して、その算出した距離と、上記反射像と予め与えられる角膜曲率半径とから算出される角膜曲率中心の位置とを用いて、実際の瞳孔位置を推定することを、
特徴とする視線測定装置。
The line-of-sight measurement device according to claim 3,
The pupil position estimating means calculates the distance between the corneal curvature center and the pupil contour using the pupil radius given in advance and the distance between the corneal curvature center given beforehand and the pupil center, Estimating the actual pupil position using the calculated distance and the position of the corneal curvature center calculated from the reflected image and the corneal curvature radius given in advance,
Characteristic eye gaze measuring device.
請求項1ないし4のいずれか1項に記載の視線測定装置において、
複数の基準点の座標と、それを利用者が注視したときに上記視線算出手段により算出される視線とから、その利用者に適用される視線の変換規約を算出する個人別パラメータ算出手段を備え、
上記視線補正手段は、上記変換規約を使って、上記視線算出手段の算出した視線を補正することを、
特徴とする視線測定装置。
The line-of-sight measurement apparatus according to any one of claims 1 to 4,
Individual parameter calculation means for calculating a line-of-sight conversion rule applied to the user from the coordinates of the plurality of reference points and the line of sight calculated by the line-of-sight calculation means when the user gazes at the reference point ,
The line-of-sight correction means corrects the line of sight calculated by the line-of-sight calculation means using the conversion protocol.
Characteristic eye gaze measuring device.
請求項5記載の視線測定装置において、
上記個人別パラメータ算出手段の算出した変換規約を外部記憶装置に保存し、次に同じ利用者が測定対象となるときに、その変換規約をその外部記憶装置から読み出す個人別パラメータ保存手段を備えることを、
特徴とする視線測定装置。
The line-of-sight measurement device according to claim 5.
The conversion rule calculated by the individual parameter calculation means is stored in an external storage device, and the individual parameter storage means for reading the conversion rule from the external storage device when the same user is to be measured next. The
Characteristic eye gaze measuring device.
眼球撮影手段と瞳孔位置検出手段と瞳孔位置推定手段と反射像検出手段と視線算出手段と視線補正手段とを備える視線測定装置で実行される視線測定方法であって、
上記眼球撮影手段は、利用者の眼球を撮影し、
上記瞳孔位置検出手段は、上記眼球撮影手段の撮影した画像から、見かけの瞳孔位置を検出し、
上記瞳孔位置推定手段は、上記瞳孔位置検出手段の検出した見かけの瞳孔位置から、角膜における屈折を考慮することで、実際の瞳孔位置を推定し、
上記反射像検出手段は、上記眼球撮影手段の撮影した画像から、角膜表面における外部光の反射像を検出し、
上記視線算出手段は、上記瞳孔位置推定手段の推定した瞳孔位置と、上記反射像検出手段の検出した反射像とから、利用者の視線を算出し、
上記視線補正手段は、上記視線算出手段の算出した視線を、その視線の算出対象となった利用者に合わせて補正することを、
特徴とする視線測定方法。
A line-of-sight measurement method executed by a line-of-sight measurement device comprising eyeball imaging means, pupil position detection means, pupil position estimation means, reflected image detection means, line-of-sight calculation means, and line-of-sight correction means,
The eyeball shooting means is to shoot the eye of a Subscriber,
It said pupil position detection means, from the captured image of the eye ball shooting means, it detects the pupil position of the apparent
The pupil position estimating means, the pupil position of an apparent it detects the pupil position detecting means, by considering the refraction at the cornea, and estimate the actual pupil position,
The reflected image detection means, from the images taken of the upper Symbol eye imaging means, it detects the reflected image of the external light on the corneal surface,
The sight calculating means, the pupil position was estimated boss of the pupil position estimation means, and a reflected image has detected the reflected image detection unit issues calculate the line of sight of the user,
The line-of-sight correction means, the calculated out line-of-sight of the line-of-sight calculating means, and Turkey be corrected in accordance with the user who has become a calculation target of the line-of-sight,
A characteristic gaze measurement method.
請求項7記載の視線測定方法において、
上記瞳孔位置推定手段は、上記眼球撮影手段から上記見かけの瞳孔位置へ向かう光の屈折方向を算出して、その屈折方向上に位置し、かつ、角膜曲率中心から規定の距離の所に位置する輪郭座標を求めることで、実際の瞳孔位置を推定することを、
特徴とする視線測定方法。
The line-of-sight measurement method according to claim 7,
The pupil position estimating means calculates the refraction direction of light traveling from the upper Symbol eye imaging means to the pupil position of the apparent, located on the refraction direction and located at a defined distance from the center of corneal curvature To estimate the actual pupil position by finding the contour coordinates to
A characteristic gaze measurement method.
請求項8記載の視線測定方法において、
上記瞳孔位置推定手段は、予め与えられる瞳孔半径と、予め与えられる角膜曲率中心と瞳孔中心との間の距離とを使って、角膜曲率中心と瞳孔輪郭との間の距離を算出して、その算出した距離と、上記反射像と予め与えられる角膜曲率半径とから算出される角膜曲率中心の位置とを用いて、実際の瞳孔位置を推定することを、
特徴とする視線測定方法。
The line-of-sight measurement method according to claim 8.
The pupil position estimation means, using the pupil radius given Me pre, and the distance between the center of corneal curvature and pupil center previously given, by calculating the distance between the center of corneal curvature and pupil contours, Estimating the actual pupil position using the calculated distance and the position of the corneal curvature center calculated from the reflected image and the corneal curvature radius given in advance,
A characteristic gaze measurement method.
請求項7ないし9のいずれか1項に記載の視線測定方法において、
上記視線測定装置がさらに個人別パラメータ算出手段を備えるときにあって、該個人別パラメータ算出手段は、複数の基準点の座標と、それを利用者が注視したときに上記視線算出手段により算出される視線とから、その利用者に適用される視線の変換規約を算出し、
上記視線補正手段は、上記変換規約を使って、上記視線算出手段の算出した視線を補正することを、
特徴とする視線測定方法。
The line-of-sight measurement method according to any one of claims 7 to 9,
In the case with the line-of-sight measurement device further personalized parameter calculating means calculates, individual human-specific parameter calculating means, the coordinates of the reference point of the multiple, by the line of sight calculating means when the user it has gaze from a line-of-sight to be, out calculate the conversion terms of the line-of-sight to be applied to the user,
The line-of-sight correction means, using the above Symbol conversion rule, so as to correct the calculated view line of the line-of-sight calculating means,
A characteristic gaze measurement method.
請求項10記載の視線測定方法において、
上記視線測定装置がさらに個人別パラメータ保存手段を備えるときにあって、該個人別パラメータ保存手段は、上記個人別パラメータ算出手段の算出した変換規約を外部記憶装置に保存し、次に同じ利用者が測定対象となるときに、その変換規約をその外部記憶装置から読み出すことを、
特徴とする視線測定方法。
The line-of-sight measurement method according to claim 10.
In the case with a more personalized parameter storage means the visual line measuring device, individual human-specific parameter storage unit stores the conversion terms calculated for the individual-specific parameter calculating means in the external storage device, then the same use when a person is measured, and the score read out the conversion rule from the external storage device,
A characteristic gaze measurement method.
請求項7ないし11のいずれか1項に記載の視線測定方法の実現に用いられる処理をコンピュータに実行させるための視線測定プログラム。  A line-of-sight measurement program for causing a computer to execute processing used to realize the line-of-sight measurement method according to claim 7. 請求項7ないし11のいずれか1項に記載の視線測定方法の実現に用いられる処理をコンピュータに実行させるためのプログラムを記録した視線測定プログラムの記録媒体。  A recording medium for a line-of-sight measurement program in which a program for causing a computer to execute processing used to realize the line-of-sight measurement method according to claim 7 is recorded.
JP2001276169A 2001-09-12 2001-09-12 Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program Expired - Lifetime JP3711053B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001276169A JP3711053B2 (en) 2001-09-12 2001-09-12 Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001276169A JP3711053B2 (en) 2001-09-12 2001-09-12 Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2003079577A JP2003079577A (en) 2003-03-18
JP3711053B2 true JP3711053B2 (en) 2005-10-26

Family

ID=19100913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001276169A Expired - Lifetime JP3711053B2 (en) 2001-09-12 2001-09-12 Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP3711053B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4654434B2 (en) * 2004-11-24 2011-03-23 国立大学法人佐賀大学 Gaze direction identification system
JP4457405B2 (en) 2005-02-23 2010-04-28 富士フイルム株式会社 Image processing method, image processing apparatus, and image processing program
JP4824420B2 (en) * 2006-02-07 2011-11-30 アイテック株式会社 Gaze vector detection method and apparatus
JP5158842B2 (en) * 2007-04-24 2013-03-06 学校法人中部大学 Eye movement measuring method and eye movement measuring apparatus
JP5578603B2 (en) * 2009-12-04 2014-08-27 国立大学法人佐賀大学 Gaze control device, gaze control method, and program thereof
JP5664064B2 (en) * 2010-09-22 2015-02-04 富士通株式会社 Gaze detection device and correction coefficient calculation program
JP5873362B2 (en) * 2012-03-13 2016-03-01 日本放送協会 Gaze error correction apparatus, program thereof, and method thereof
WO2022153759A1 (en) 2021-01-14 2022-07-21 ソニーグループ株式会社 Image display device and image display system
CN113662822B (en) * 2021-07-29 2023-09-12 广州视景医疗软件有限公司 Optotype adjusting method based on eye movement, visual training method and visual training device
CN114360043B (en) * 2022-03-18 2022-06-17 南昌虚拟现实研究院股份有限公司 Model parameter calibration method, sight tracking method, device, medium and equipment

Also Published As

Publication number Publication date
JP2003079577A (en) 2003-03-18

Similar Documents

Publication Publication Date Title
JP4649319B2 (en) Gaze detection device, gaze detection method, and gaze detection program
US11867978B2 (en) Method and device for determining parameters for spectacle fitting
JP6586523B2 (en) Eye tracking using structured light
JP5158842B2 (en) Eye movement measuring method and eye movement measuring apparatus
EP3339943A1 (en) Method and system for obtaining optometric parameters for fitting eyeglasses
US20220100268A1 (en) Eye tracking device and a method thereof
CN107357429B (en) Method, apparatus, and computer-readable storage medium for determining gaze
JP2010259605A (en) Visual line measuring device and visual line measuring program
KR20140125713A (en) Apparatus and method of gaze tracking based on camera array
CN104809424B (en) Method for realizing sight tracking based on iris characteristics
JP2005185431A (en) Line-of-sight detection method and line-of-sight detector
JP7030317B2 (en) Pupil detection device and pupil detection method
JP3453911B2 (en) Gaze recognition device
JP7168953B2 (en) Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
JP6840697B2 (en) Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program
JP2009297323A (en) Visual axis measuring apparatus
JP2012239566A (en) Measuring apparatus for glasses, and three-dimensional measuring apparatus
CN113692527B (en) Method and device for measuring the local refractive power and/or the power distribution of an ophthalmic lens
KR20200006621A (en) Methods, apparatus, and computer programs for determining near vision points
JP3711053B2 (en) Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program
JP2006285531A (en) Detection device for eye direction, detecting method for eye direction, program for executing the same detecting method for eye direction by computer
JP2019098024A (en) Image processing device and method
JP2018101211A (en) On-vehicle device
Borsato et al. Episcleral surface tracking: challenges and possibilities for using mice sensors for wearable eye tracking
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050609

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050811

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3711053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130819

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term