JP2005253778A - 視線検出方法及び同装置 - Google Patents

視線検出方法及び同装置 Download PDF

Info

Publication number
JP2005253778A
JP2005253778A JP2004071256A JP2004071256A JP2005253778A JP 2005253778 A JP2005253778 A JP 2005253778A JP 2004071256 A JP2004071256 A JP 2004071256A JP 2004071256 A JP2004071256 A JP 2004071256A JP 2005253778 A JP2005253778 A JP 2005253778A
Authority
JP
Japan
Prior art keywords
eyes
camera
pupil
distance
center point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004071256A
Other languages
English (en)
Inventor
Dotan Knaan
クナーアン ドータン
Jeremy Kaminski
カミンスキー ジェレミー
Shavit Adi
シャヴィット アディ
Siegal Dana
シーガル ダナ
Kazufumi Suzuki
一史 鈴木
Yoshio Ichihashi
敬男 市橋
Akio Takahashi
昭夫 高橋
Akihito Kimata
亮人 木俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEN TEC KK
Honda Motor Co Ltd
Gentech Co Ltd
Original Assignee
GEN TEC KK
Honda Motor Co Ltd
Gentech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEN TEC KK, Honda Motor Co Ltd, Gentech Co Ltd filed Critical GEN TEC KK
Priority to JP2004071256A priority Critical patent/JP2005253778A/ja
Priority to EP05005391A priority patent/EP1580649A1/en
Priority to US11/078,144 priority patent/US7246904B2/en
Publication of JP2005253778A publication Critical patent/JP2005253778A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】 簡易な方法で、しかも正確にカメラと顔面との距離を正確に求めることができ、視線方向も容易に求めることができる方法並びに装置を提供すること。
【構成】
顔及び眼を撮影するカメラと、眼を照射する赤外線等の光源を具備した撮影システムにおいて、瞳孔の中心点を求めるステップと、角膜球の中心点を求めるステップと、該角膜球の中心点から前記瞳孔の中心点に向かうベクトルの方向を求めるステップとを含み、前記瞳孔の中心点を求めるステップは形態学上の知見によるデータを利用したことを特徴とする。
【選択図】
図3

Description


この発明は、コンピュータの入力装置や車の運転補助手段として利用する視線検出技術に関するものである。
従来から手又は指を自由に使えない不具者のためのコンピュータ入力装置として視線の検出技術が開発されてきた。又、車を運転するドライバの視線を監視して、車の運転補助手段としても視線の検出が利用される。しかし、従来の視線検出装置は使用者に特定の器具を装着させるものもあり、これらの技術は使用者を束縛するために使用勝手が悪いと言う課題があった。この課題を解決するために近年眼球モデルを利用して視線を検出する技術が開発されている。
眼球モデルを利用する場合に、カメラ位置から顔面までの正確な距離を簡単な方法で正確に求めることが一つの問題になってくる。例えば、特許文献1に記載されている装置は、運転者の視線を検出する装置であり、カメラの位置から運転者の顔面までの距離を求める手段として距離センサを利用している。距離センサとしては超音波型センサ等を使用している。超音波型センサを使用した場合、全体の装置が複雑になり、簡単なセンサでは精度が悪く、精度を高くすると装置が高価になるという問題が生じる。
公開特許公報、第平8−297019号(車両用視線方向計測装置)
また、非特許文献1、2にも、眼球モデルを利用した視線の方向を検出する技術が記載されている。この文献の装置は、点光源から近赤外線を眼の中の角膜に照射し、反射像(プルキニエ像と呼んでいる)の座標を求めるために、カメラ(又は点光源)から顔面までの距離を求める必要があり、その方法としてカメラによる撮影画像上の点光源の大きさ(プルキニエ像の大きさ)が最小になる位置にフォーカスを合わせたときのフォーカス値からその距離を求めている。しかし、プルキニエ像の大きさを正確に最小になるように調節するのは困難であり、従って、精度の高い距離測定は期待できず、それを利用した視線方向の検出も誤差が含まれ、問題である。
情報処理研究報告2001―HI−93、pp.47−54(眼球形状モデルに基づく視線測定システム) 第8回画像センシングシンポジウム、pp.307−312、2002(眼球モデルに基づく視線測定方法)
更に、カメラと実空間における物体との距離を求める方法としてはキャリブレーション(校正)による方法も考えられるが、この方法はキャリブレーションのために実空間に3次元座標系の座標モデルを必要とするために測定系が複雑になるという課題がある。

本発明は、上記事実に鑑みなされたものであり、簡易な方法で、しかも正確にカメラと顔面との距離を正確に求めることができ、視線方向も容易に求めることができる方法並びに装置を提供することを課題とする。
本発明は上記の課題を解決するための手段として以下の構成を採用している。即ち、
請求項1に記載の発明は、 顔及び眼を撮影するカメラと、眼を照射する赤外線等の光源を具備した撮影システムにおいて、瞳孔の中心点を求めるステップと、角膜球の中心点を求めるステップと、該角膜球の中心点から前記瞳孔の中心点に向かうベクトルの方向を求めるステップとを含み、前記瞳孔の中心点を求めるステップは形態学上の知見によるデータを利用したことを特徴としている。
また、請求項2に記載の発明は、請求項1に記載の発明において、前記形態学上の知見データは、(1)左右の眼から鼻までの距離は等しい、(2)左右の眼の距離と眼から鼻までの距離の比は一定値であり、(3)左右の眼の距離は一定である、ことを特徴としている。
請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、前記角膜球の中心点を求めるステップは、前記形態学上の知見データの他に、角膜球の中心半径は一定値であるという知見データを利用したことを特徴としている。
請求項4に記載の発明は、顔及び眼を撮影するカメラと、眼を照射する赤外線等の光源と、該カメラの撮影データと形態学上の知見によるデ−タに基づいて視線方向を演算により求める演算処理装置を具備したことを特徴とする。
本発明によれば、簡易な装置で正確に視線方向を検出できるという効果が得られる。

以下本発明の実施形態を図に基づいて説明する。
図1(A)は本発明を実施する実施形態の装置構成を示し、図1(B)は本実施形態で利用する顔の形態学上の性質を説明するための図である。図1(A)において、本装置は、撮影対象、例えば人間の顔(又は眼)10を撮影するカメラ11と赤外線を発光するダイオード12と撮影画像から得られた画像データに基づいて種々の計算を実行し、各装置11、12を制御するコンピュータ13から構成されている。なお、カメラ11の位置座標、向きの角度及び赤外線発光ダイオード12の位置座標、向きの角度は既知である。カメラ11について、焦点距離(f)、及びカメラパラメータ(K)は既知である。
図1(B)に示すように、人間の顔10は左右の眼、鼻及び口を有している。右眼Aの座標を(Ax,Ay,Az)とし、左眼Bの座標を(Bx,By,Bz)とし、鼻Cの座標を(Cx,Cy,Cz)とすれば、例えば、非特許文献3に記載されているように、次の関係が成立することが形態学上知られている。
即ち、(1) d(A,C)=d(B,C)
(2) r=d(A,B)/d(A,C)=1.0833
(3)
d(A,B)=6.5(cm)
(4)
角膜球の半径=7.7(mm) である。
なお、上記関係で、記号「d(*、*)」は2点間の距離を示し、記号「/」は割り算を意味している。
L.G.Farkas, Anthropometry of the Head and Face, Lippincott Williams & Wilkins,1994.
図2は各座標系の位置を示す。図2において原点Oはカメラ11のレンズ中心とする。2次元座標系20(u、v)は撮影画像面の座標系でカメラ11の焦点距離f(f=1)だけ離れた距離にある平面座標系である。また、3次元座標系(x、y、z)21は基準座標系で数値計算等の際の丸め誤差を小さくするために設けられる座標系である。この座標系21は世界座標系(X,Y,Z)22の各軸のスケールを変換して各データの大きさの一様化を図るための座標系である。即ち、世界座標系22で各座標の単位の決め方により数値の大きさにばらつきがあると数値計算の結果に信頼性がなくなるために、データの大きさを揃える必要があるからである。
座標系20における右眼の座標をa(au、av、1)、左眼の座標をb(bu、bv、1)、鼻の座標c(cu、cv、1)とし、座標系21における右眼の座標をva(vax、vay、vaz)、左眼の座標をvb(vbx、vby、vbz)、鼻の座標vc(vcx、vcy、vcz)とし、世界座標系22における右眼の座標をA(Ax、Ay、Az)、左眼の座標をB(Bx、By、Bz)、鼻の座標C(Cx、Cy、Cz)とする。
又、座標系20の任意点p=p(u,v,1)と座標系21の対応点v=v(x、y、z)はカメラパラメータ行列(K)を利用してp=Kvと表せる。撮影画像面の座標系20の点vは撮影画像の点を読み取ることによって既知となる。カメラパラメータ逆行(K)は逆行列(K−1 )が存在するので、点pの対応点vも既知となる。即ち、点va、vb、vcは、以下の関係式4から求めることができる。なお、以下の数式1で、小文字の「T」は転置をあらわす。
Figure 2005253778
更に、図2に示すように、座標系21の点vに対応する世界座標系22における対応点M=M(X、Y、Z)は原点Oからの延長線上にあることから、スケールパラメータ(λ、μ、τ)とすれば以下の数式2が成立する。
Figure 2005253778
数式1及び数式2を前記した関係(1)〜(3)に代入すれば未知のスケールパラメータ(λ、μ、τ)を数値計算により求めることができ、世界座標系22における右眼位置A、左眼位置B、鼻位置Cを決定することができる。従って、顔の法線ベクトルNは、式6から求めることができる。又、原点Oから点A,B,Cまでの距離も求めることができる。
図3は眼の構成と視線方向の関係を示す図である。図3において、眼球の外側に角膜25があり、角膜25は点線で表示した球面26の部分球面を構成している。球面26は中心がSで、半径Rの仮想的シェルである。半径Rは、顔の形態学上の性質のところで述べたように、R=7.7mmとされている。また、水晶体27の前面側には入射する光量を調節する瞳彩28があり、瞳彩28の穴から見える部分が瞳孔(又は瞳)29である。球面26の中心S(Sx,Sy,Sz)と瞳孔29の中心T(Tx,Ty,Tz)とを結ぶ矢印の直線30が視線方向である。
撮影画像20で、円31は瞳孔29の画像で、中心点tは中心Tの画像である。中心点tの座標(tu、tv)は撮影画像から読み取れるから、これを利用して瞳孔29の中心Tの座標(Tx、Ty、Tz)は以下の関係から決定できる。なお、距離(f)はカメラ11の焦点距離である。記号「・」はスカラー積を示す。
(5)Tzは原点Oと眼A(または眼B)との距離d(OA)とほぼ等しい。即ち、Tz=d(OA)、
(6)Tx=(Tz/f)・tu、 Ty=(Tz/f)・tv
また、球面26の中心S(Sx,Sy,Sz)は以下のようにして求める。即ち、赤外線光発射点Bから発射した赤外線光は角膜25の輝点Pで反射して原点Oに入射する。また、赤外光発射点Bの座標(Bx,By,Bz)は既知であり、原点Oと輝点Pの距離d(OP)は、d(OP)=d(OA)=Tzであり、かつ、入射角と反射角は等しく(θ/2)である。従って、輝点Pの座標(Px,Py,Pz)は決定することができ、更に、輝点Pにおける法線ベクトルも決定することができる。
しかし、赤外線光発射点Bがカメラ11に十分に近い位置にあるときは、撮影画像上の点p(pu、pv)から、瞳孔29の中心Tを求めた方法と同様にして輝点Pの座標(Px,Py、Pz)を求めることができ、更に、球面26の中心Sは点Bと点Pを通る線上にあるとしてもよい。赤外線光発射点Bから輝点PへのベクトルをV(BP)とすれば、球面26の中心S(Sx,Sy,Sz)は以下の関係から求めることができる。
(7)
S(Sx,Sy,Sz)=P(Px,Py、Pz)
+R・(V(BP)/d(BP))
上の関係で、S,Pは原点からのベクトルで、Rは角膜球26の半径でR=7.7(ミリメートル)である。「d」は距離(ノルム)を示す。
関係(7)は3個の連立方程式を含んでおり、(Sx,Sy,Sz)を求めることができ、瞳孔29の中心Tの座標(Tx、Ty、Tz)は上述したように求められるので、点Sから点Tへの方向、即ち視線方向も決定できる。
以上に説明した方法によれば、カメラから顔面までの距離は正確に求めることができ、しかも赤外線光発射点Bがカメラ11に十分に近い位置にあるときは、球面26の中心S及び瞳孔29の中心Tの双方も高い精度で求められる。従って、本方法によれば、高い精度で、かつ、簡単なシステムで視線方向を求めることができる。
(A)本実施形態のシステム構成を示し、(B)は顔の形態学的知見データを説明するための図を示す。 各座標系の関係を示す。 眼球モデルと視線方向の関係を示す。
符号の説明
10 被測定者の顔面
11 カメラ
12 赤外線発光ダイオード
13 コンピュータ(処理装置)
20 カメラの撮影画像
25 角膜
26 角膜球面
27 水晶体
28 瞳彩
29 瞳孔
30 視線ベクトル

Claims (4)

  1. 顔及び眼を撮影するカメラと、眼を照射する赤外線等の光源を具備した撮影システムにおいて、瞳孔の中心点を求めるステップと、角膜球の中心点を求めるステップと、該角膜球の中心点から前記瞳孔の中心点に向かうベクトルの方向を求めるステップとを含み、前記瞳孔の中心点を求めるステップは形態学上の知見によるデータを利用したことを特徴とする視線検出方法。
  2. 前記形態学上の知見データは、(1)左右の眼から鼻までの距離は等しい、(2)左右の眼の距離と眼から鼻までの距離の比は一定値であり、(3)左右の眼の距離は一定である、ことを特徴とする請求項1に記載の視線検出方法。
  3. 前記角膜球の中心点を求めるステップは、前記形態学上の知見データの他に、角膜球の中心半径は一定値であるという知見データを利用したことを特徴とする請求項1または請求項2の何れか1に記載の視線検出方法。
  4. 顔及び眼を撮影するカメラと、眼を照射する赤外線等の光源と、該カメラの撮影データと形態学上の知見によるデ−タに基づいて視線方向を演算により求める演算処理装置を具備したことを特徴とする視線検出装置。
JP2004071256A 2004-03-12 2004-03-12 視線検出方法及び同装置 Pending JP2005253778A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004071256A JP2005253778A (ja) 2004-03-12 2004-03-12 視線検出方法及び同装置
EP05005391A EP1580649A1 (en) 2004-03-12 2005-03-11 Line-of-sight detection method and apparatus therefor
US11/078,144 US7246904B2 (en) 2004-03-12 2005-03-11 Line-of-sight detection method and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004071256A JP2005253778A (ja) 2004-03-12 2004-03-12 視線検出方法及び同装置

Publications (1)

Publication Number Publication Date
JP2005253778A true JP2005253778A (ja) 2005-09-22

Family

ID=34858334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004071256A Pending JP2005253778A (ja) 2004-03-12 2004-03-12 視線検出方法及び同装置

Country Status (3)

Country Link
US (1) US7246904B2 (ja)
EP (1) EP1580649A1 (ja)
JP (1) JP2005253778A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007209384A (ja) * 2006-02-07 2007-08-23 Gen Tec:Kk 視線ベクトル検出方法及び同装置
JP2012037934A (ja) * 2010-08-03 2012-02-23 Canon Inc 視線検出装置、視線検出方法及びプログラム
KR101601508B1 (ko) * 2014-10-20 2016-03-09 현대자동차주식회사 시선 추적 방법
US10205883B2 (en) 2015-09-09 2019-02-12 Fujitsu Connected Technologies Limited Display control method, terminal device, and storage medium

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006095008A (ja) * 2004-09-29 2006-04-13 Gen Tec:Kk 視線検出方法
WO2007023798A1 (ja) * 2005-08-23 2007-03-01 National University Corporation Shizuoka University 瞳孔検出装置及び瞳孔検出方法
JP2009059257A (ja) * 2007-09-03 2009-03-19 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
TWI395144B (zh) * 2008-06-25 2013-05-01 Altek Corp Method of eye sight judgment
JP5456791B2 (ja) * 2009-01-26 2014-04-02 トビー・テクノロジー・アーベー 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法
US20120169596A1 (en) * 2009-09-29 2012-07-05 Zhuang Longpeng Method and apparatus for detecting a fixation point based on face detection and image measurement
US9148537B1 (en) * 2012-05-18 2015-09-29 hopTo Inc. Facial cues as commands
US9395826B1 (en) 2012-05-25 2016-07-19 hopTo Inc. System for and method of translating motion-based user input between a client device and an application host computer
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
JP6157165B2 (ja) * 2013-03-22 2017-07-05 キヤノン株式会社 視線検出装置及び撮像装置
CN105812778B (zh) 2015-01-21 2018-02-02 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN105872526B (zh) * 2015-01-21 2017-10-31 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN107991775B (zh) * 2016-10-26 2020-06-05 中国科学院深圳先进技术研究院 能够进行人眼追踪的头戴式可视设备及人眼追踪方法
CN107003744B (zh) * 2016-12-01 2019-05-10 深圳前海达闼云端智能科技有限公司 视点确定方法、装置和电子设备
US10564716B2 (en) 2018-02-12 2020-02-18 Hong Kong Applied Science and Technology Research Institute Company Limited 3D gazing point detection by binocular homography mapping

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297019A (ja) 1995-04-27 1996-11-12 Nissan Motor Co Ltd 車両用視線方向計測装置
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007209384A (ja) * 2006-02-07 2007-08-23 Gen Tec:Kk 視線ベクトル検出方法及び同装置
JP2012037934A (ja) * 2010-08-03 2012-02-23 Canon Inc 視線検出装置、視線検出方法及びプログラム
KR101601508B1 (ko) * 2014-10-20 2016-03-09 현대자동차주식회사 시선 추적 방법
US10205883B2 (en) 2015-09-09 2019-02-12 Fujitsu Connected Technologies Limited Display control method, terminal device, and storage medium

Also Published As

Publication number Publication date
US7246904B2 (en) 2007-07-24
US20050200806A1 (en) 2005-09-15
EP1580649A1 (en) 2005-09-28

Similar Documents

Publication Publication Date Title
US7246904B2 (en) Line-of-sight detection method and apparatus therefor
JP6902075B2 (ja) 構造化光を用いた視線追跡
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US8371693B2 (en) Autism diagnosis support apparatus
JP4649319B2 (ja) 視線検出装置、視線検出方法、および視線検出プログラム
CN109008944B (zh) 视线计测装置、rom及视线计测方法
US9244529B2 (en) Point-of-gaze estimation robust to head rotations and/or device rotations
JP4517049B2 (ja) 視線検出方法および視線検出装置
JP4824420B2 (ja) 視線ベクトル検出方法及び同装置
US20140218281A1 (en) Systems and methods for eye gaze determination
US7717561B2 (en) Sight line detecting method
KR100949743B1 (ko) 고글 형태를 갖는 착용형 시선 추적 장치 및 방법
WO2007113975A1 (ja) 視点検出装置
JP6631951B2 (ja) 視線検出装置及び視線検出方法
WO2019010959A1 (zh) 用于确定视线的方法、设备和计算机可读存储介质
JPWO2018030515A1 (ja) 視線検出装置
JP2010259605A (ja) 視線測定装置および視線測定プログラム
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP7168953B2 (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
CN109414167A (zh) 视线检测装置、视线检测方法以及计算机程序
JPH0651901A (ja) 視線認識によるコミュニケーション装置
US20190235255A1 (en) System, head mounted device (hmd) and method for adjusting a position of an hmd worn by a user
JP2007029126A (ja) 視線検出装置
JP2005198743A (ja) 三次元視点計測装置
EP3542308B1 (en) Method and device for eye metric acquisition