JP6265348B2 - 視線計測装置、視線計測方法および視線計測プログラム - Google Patents
視線計測装置、視線計測方法および視線計測プログラム Download PDFInfo
- Publication number
- JP6265348B2 JP6265348B2 JP2015518087A JP2015518087A JP6265348B2 JP 6265348 B2 JP6265348 B2 JP 6265348B2 JP 2015518087 A JP2015518087 A JP 2015518087A JP 2015518087 A JP2015518087 A JP 2015518087A JP 6265348 B2 JP6265348 B2 JP 6265348B2
- Authority
- JP
- Japan
- Prior art keywords
- visual
- line
- optical axis
- axes
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 28
- 230000003287 optical effect Effects 0.000 claims description 121
- 230000000007 visual effect Effects 0.000 claims description 108
- 210000005252 bulbus oculi Anatomy 0.000 claims description 100
- 210000001508 eye Anatomy 0.000 claims description 99
- 239000013598 vector Substances 0.000 claims description 67
- 238000005259 measurement Methods 0.000 claims description 42
- 238000004364 calculation method Methods 0.000 claims description 27
- 210000004087 cornea Anatomy 0.000 claims description 11
- 210000001747 pupil Anatomy 0.000 claims description 10
- 238000000691 measurement method Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 description 9
- 239000003550 marker Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000007796 conventional method Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
- B60K35/285—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Emergency Management (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Mechanical Engineering (AREA)
- Optics & Photonics (AREA)
- Business, Economics & Management (AREA)
- Ophthalmology & Optometry (AREA)
- Signal Processing (AREA)
- Psychology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Eye Examination Apparatus (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Description
そこで、実視線データに対する推定視線データの誤差を補正するために、ユーザ毎の補正用パラメタを予め算出しておき、算出された推定視線データをこの補正用パラメタで補正するキャリブレーションと呼ばれる処理が行われる。
キャリブレーション処理は、予め定められた複数のマーカを利用者に順に注視させ、それぞれのマーカが注視されたときの推定視線データを検出し、検出された推定視線データと眼球から各マーカへの実際の方向データとの差から算出される補正用パラメタを用いることにより行われる。
しかし、精度の高い視線データを検出するためには、補正用パラメタを生成する際に利用者に5点から20点程のマーカを注視させる必要があり、ユーザの負担が大きかった。このような状況下、キャリブレーション処理を1点のマーカにまで減少させる技術が開示されている(例えば、特許文献1,非特許文献1〜3を参照。)。
本発明者の提案する視線計測装置は、ディスプレイ画面を見ているユーザについて、光源からの光が反射した眼球画像をカメラで取得し、眼球画像から角膜の曲率中心と瞳孔の瞳孔中心とを結ぶ軸である光軸を算出し、算出した光軸を利用して、光軸と、中心窩と角膜の曲率中心とを結ぶ軸である視軸との間のずれを算出し、光軸と視軸との間のずれに基づき、光軸をずらして視軸を求め、ユーザの画面上での注視点を画面と視軸の交点として算出するものである。
このようなユーザは、特別に指定されたどこかを見ることなしに、遠方を眺める視線動作中に自然にキャリブレーションがなされるならば、非常に理想的である。
なお、本明細書において、キャリブレーションとは、眼球の光軸と視軸のずれを求めることと同義である。
cLn(αL,βL)・cRn(αR,βR)=1 ・・・ (1)
||cLn(αL,βL)×cRn(αR,βR)||=0 ・・・ (2)
1)遠方の少なくとも2点を眺める際の左右両眼の眼球の光軸を算出する光軸算出ステップ
2)遠方注視の際、左右両眼の視軸(視線)が平行であることを拘束条件として、左右両眼の光軸と視軸との間のずれを算出するずれ算出ステップ
3)光軸と視軸との間のずれに基づき、ユーザの注視点を算出する注視点算出ステップ
また、本発明によれば、ユーザが予め特定のマーカを注視するというキャリブレーションが不要であるので、ユーザの負担がないといった効果がある。
本発明を用いて、車などの操縦者が主に遠方を見ている状況での視線を計測することにより、よそ見運転を検出して警告発信や安全装置を作動させ、事故防止を図ることができる。
左右両眼の光軸と視軸のずれ角を自動で求めるために、遠方注視の際に左右両眼の視軸(視線)が平行であることを拘束条件とする。この拘束条件を用いるのは、例えば、電車、自動車、船舶などの操縦時のユーザの視線の殆どは、前方で遠方を注視することが通常の自然な状態と想定されるためである。遠方の少なくとも4点を眺めた眼球の状態を捉えることにより、左右両眼の眼球の光軸を算出し、左右両眼の光軸と視軸との間のずれを算出する。
そして、光軸と視軸との間のずれが求まることで、ユーザのその後の注視点を算出でき、視線を計測できる。その後の注視点は、遠方の注視点のみならず、メータパネルなど近くの注視点も計測可能である。
眼球は、その動作において実行可能な全ての動作をするわけではなく、通常は、ある一定の法則に従って動作している。この一定の法則をリスティングの法則という。リスティングの法則は、眼の回転運動と眼位に関する法則であり、(a)眼球の任意の眼位は、第一眼位(Primary Position)から単一の回転で到達できる位置しかとらず、そして、(b)その回転の回転軸は、第一眼位の視軸方向に垂直な平面(リスティング平面)内に存在するという眼球動作に関する法則をいう。なお、第一眼位は、リスティングの法則を満たす頭部に対する相対的な目の位置であり、およそまっすぐ立ったときに水平に真正面を見たときの方向となる。
第一視軸ベクトルaは、人がおおよそ真っ直ぐ立って正面を見た時の向きのベクトルであり、頭部の位置とともに変動するベクトルであり、頭部の位置に相対的に決定されるものである。第一視軸ベクトルaは、正面の方向と近似するなど、なんらかの方法で計測し、向きは既知であるとする。
以下では、本発明の実施形態について、図面を参照しながら詳細に説明していく。なお、本発明の範囲は、以下の実施例や図示例に限定されるものではなく、幾多の変更及び変形が可能である。
ユーザの前方周囲に配置された2個のLED光源(LED光源は赤外光線を照射するものを用いる)と、前方で遠方を注視しているユーザについて、LED光源からの光が反射した眼球画像を取得するカメラ(LED光源が赤外光線を照射する場合、赤外線に感度をもつ赤外線カメラ(infrared camera))を用意する。
2台のカメラでそれぞれ両眼撮影すればよいが、高解像度で眼球画像を撮るためには、右目用2台、左目用2台の合計4台のカメラを使用する。
CPU211は、ハードディスク213に記録されているオペレーティング・システム(OS)、視線計測プログラム等その他のアプリケーションに基づいた処理を行う。メモリ212は、CPU211に対して作業領域を提供する。ハードディスク213は、オペレーティング・システム(OS)、視線計測プログラム等その他のアプリケーション、及び視線計測の結果得られた計測データを記録保持する。
キーボード214、マウス215は、外部からの命令を受け付ける。ディスプレイ216は、右目用2台、左目用2台のカメラ219で撮像した被験者の眼球画像を、視線計測装置100の使用者の確認のために表示する。外部メモリ217は、例えばUSBメモリなどであり、視線計測プログラム等のデータを読み取る。
LED218は、視線計測装置100によって視線を計測する被験者に対して、光を照射する。カメラ219は、被験者の眼球画像を撮影する。2台のカメラの場合、それらはステレオカメラとして構成され、両眼の画像を撮影するために用いる。また、4台のカメラの場合、2組のステレオカメラが構成され、左右の眼の画像を撮影するために用いる。
aとbのずれは2変数で表される。水平方向のずれ角度をα、垂直方向をβとすると、bは、α、βを用いて下記数式(6)のように表現できる。
これについて以下に説明する。ユーザが遠方を見ているとき、両眼の光軸と視軸の関係は図8のように示される。両目の視軸は平行になる。ここで、眼球の光軸と視軸のずれは、全部で4変数を用いて表現できる。4変数は、左目の水平方向、垂直方向、右目の水平方向、垂直方向を、それぞれαL,βL,αR,βRとする。
よって、上記数式(3)〜(6)から、cLはαL,βLの関数として表現できる。同様に、cRはαR,βRの関数として表現できる。
未知数が4つあり、ユーザが異なる4方向を見るとすると、下記数式(8)のように式が4つ成立することになる。この4つの式を解くことにより、未知数である4変数αL,βL,αR,βRを求めることができる。
シミュレーションは、正解(True Value)のαL,βL,αR,βRを変化させた5ケースについて実施した。眼球の動きについては、水平、垂直方向、それぞれ10°刻みで、−20°〜20°の範囲で計25方向について計算を行った。各方向について、標準偏差が0.3°となるように計測に伴う誤差を載せて60点のデータを作成した。計測誤差の大きさは、従来方法から眼球の光軸を計測した結果から、水平方向0.21°、垂直方向0.18°であったことから0.3°と決定した。
結果を下記表1に示す。
下記表1より、Case1〜4の|α|が大きい場合(ずれ角が3°や5°の場合)、正確にαL,βL,αR,βRを計算でき、また、標準偏差が小さい。一方、Case5,6の|α|が小さい場合は(ずれ角が1°の場合)、αL,βL,αR,βRの値はあまり正確に求まらず、また標準偏差も大きくばらついていることがわかる。
実験システムは、被験者20に、前方のガラス21越しに遠方のターゲットを眺めてもらい、その状態を、ガラス21下縁部に設けた4台のカメラ22(Camera0〜Camera3)で眼球部分の画像を取得できるようにしたものである。ガラス21上に赤外線LED(IR−LED)23を2台設けている。また、従来技術である1点キャリブレーション方法により、αL,βL,αR,βRを求めるための1点キャリブレーション用のマーカ24をガラス21上に設けている(1点キャリブレーションの方法については上述の非特許文献3を参照)。
ガラス21下縁部に設けた4台のカメラの内、2台のカメラ22(Camera0,Camera1)のペアーを用いて右目の眼球の光軸を算出し、2台のカメラ22(Camera2,Camera3)のペアーを用いて左目の眼球の光軸を算出することにしている。使用したカメラは、50mmレンズと赤外線(IR)フィルタを備えたCMOSイメージセンサを搭載したディジタルカメラである。
実験結果を下記表2に示す。実験参加者は3名(男子1名、女子2名)である。計算は、左目の水平方向のαの値の探索範囲を、−7°から0°、右目の水平方向のαの値の探索範囲は、0°から7°、垂直方向のβの値の探索範囲は、左右ともに−2°から2°とした。
光軸の向きのみからは、ガラス上に止まっている虫を見ている場合は判別できない。車など、ある程度速度が出ている場合、長時間近くを見ることは考えられない。車速を取得し、一定の車速以上で、どれだけの頻度で輻輳角が大きくなるのかという観点から判別が可能であろう。
実施例2の視線計測装置では、遠方の2点を眺める際の状態を捉えて、ユーザの左右両眼の視軸(視線)が平行であることを拘束条件とし、遠方の少なくとも2点を眺める際の左右両眼の眼球の光軸を算出し、左右両眼の光軸と視軸との間のずれを算出できることを説明する。
実施例1の視線計測装置とは異なり、遠方の2点を眺めることにより自動キャリブレーションを行う場合、左右両眼の視軸のそれぞれの単位ベクトルが等しいと制約を設ける。
すなわち、下記数式(10)が成立する。ここで、cLとcRはそれぞれ左目と右目の眼球の視軸の単位方向ベクトルであり、αL,βL,αR,βRは眼球の光軸と視軸のずれを表現するものであり、それぞれ左目の水平方向、垂直方向、右目の水平方向、垂直方向のずれを表す。
cL0(αL,βL)=cR0(αR,βR)
cL1(αL,βL)=cR1(αR,βR) ・・・(10)
10 光源手段
12 カメラ手段
14 光軸算出手段
16 ずれ算出手段
18 注視点算出手段
20 被験者
21 ガラス
22 カメラ
23 赤外線LED
24 1点キャリブレーション用のマーカ
100 視線計測装置
Claims (14)
- 主に遠方を眺めるユーザの視線計測装置であって、
遠方の少なくとも2点を眺める際の左右両眼の眼球の光軸を算出する光軸算出手段と、
遠方注視の際、左右両眼の視軸(視線)が平行であることを拘束条件として、左右両眼の光軸と視軸との間のずれを算出するずれ算出手段と、
光軸と視軸との間のずれに基づき、前記ユーザの注視点を算出する注視点算出手段と、を備えたことを特徴とする視線計測装置。 - 前記拘束条件は、左右両眼の視軸のそれぞれの単位ベクトルが等しいことを特徴とする請求項1に記載の視線計測装置。
- 前記光軸算出手段は、遠方の少なくとも4点を眺める際の左右両眼の眼球の光軸を算出し、
前記拘束条件は、左右両眼の視軸のそれぞれのベクトルの外積の大きさが0、もしくは、左右両眼の視軸のそれぞれの単位ベクトルの内積が1であることを特徴とする請求項1に記載の視線計測装置。 - 前記拘束条件は、左右両眼の視軸のそれぞれの単位ベクトルの内積が1である場合、遠方の少なくとも4点を眺める際の左右両眼の眼球の光軸に対して、下記数式を満たすことを特徴とする請求項3に記載の視線計測装置。
(数1)
cLn(αL,βL)・cRn(αR,βR)=1
但し、cLn(αL,βL)、cRn(αR,βR)は、それぞれ左右眼球の視軸の単位ベクトルであり、光軸からの水平方向のずれ角αと垂直方向のずれ角βの関数として表現されたもの。但し、Lは左、Rは右、nは0,1,・・・,N(Nは3以上)。 - 前記拘束条件は、左右両眼の視軸のそれぞれのベクトルの外積の大きさが0である場合、遠方の少なくとも4点を眺める際の左右両眼の眼球の光軸に対して、下記数式を満たすことを特徴とする請求項3に記載の視線計測装置。
(数2)
||cLn(αL,βL)×cRn(αR,βR)||=0
但し、cLn(αL,βL)、cRn(αR,βR)は、それぞれ左右眼球の視軸のベクトルであり、光軸からの水平方向のずれ角αと垂直方向のずれ角βの関数として表現されたもの。但し、Lは左、Rは右、nは0,1,・・・,N(Nは3以上)。 - 前記光軸算出手段は、
遠方を眺める際のユーザについて、眼球の画像である眼球画像を取得し、
前記眼球画像から、角膜の曲率中心もしくは眼球の回転中心と、瞳孔の瞳孔中心とを結ぶ軸である光軸を算出することを特徴とする請求項1〜5のいずれかに記載の視線計測装置。 - 前記眼球画像が、所定の光源からの光が反射した眼球の画像であることを特徴とする請求項6に記載の視線計測装置。
- 前記ユーザの前方に
左右両眼の眼球画像を取得し得るように各々異なる位置に配置される少なくとも2個のカメラ手段と、
眼球における光源の反射像が互いに分離したものとなるように各々異なる位置に配置される少なくとも2個の光源手段と、
が設けられ、
左右両眼の眼球の角膜の曲率半径一定領域に少なくとも2個のプルキニエ像を形成させ、何れかのカメラ手段により撮像された眼球画像上における光源手段のプルキニエ像の位置と、実際の光源手段の位置とを対応付け、対応付けられた少なくとも2組のカメラ手段と光源手段の位置関係から眼球の光軸を算出する、
ことを特徴とする請求項6又は7に記載の視線計測装置。 - 前記ずれ算出手段において、
左右両眼の光軸に対する視軸のずれ角の探索範囲を、水平方向で±7°以下、垂直方向で±2°以下とする制約を設けることにより、ずれ角を収束させることを特徴とする請求項1〜8のいずれかに記載の視線計測装置。 - 前記ユーザは、電車、自動車、船舶を含む移動手段の操縦時の操縦者であることを特徴とする請求項1〜9のいずれかに記載の視線計測装置。
- 主に遠方を眺めるユーザの視線計測方法であって、
遠方の少なくとも2点を眺める際の左右両眼の眼球の光軸を算出する光軸算出ステップと、
遠方注視の際、左右両眼の視軸(視線)が平行であることを拘束条件として、左右両眼の光軸と視軸との間のずれを算出するずれ算出ステップと、
光軸と視軸との間のずれに基づき、前記ユーザの注視点を算出する注視点算出ステップと、を備えたことを特徴とする視線計測方法。 - 前記光軸算出ステップは、遠方の少なくとも4点を眺める際の左右両眼の眼球の光軸を算出し、
前記拘束条件は、左右両眼の視軸のそれぞれのベクトルの外積の大きさが0、もしくは、左右両眼の視軸のそれぞれの単位ベクトルの内積が1である請求項11に記載の視線計測方法。 - 主に遠方を眺めるユーザの視線計測プログラムであって、
コンピュータに、
遠方の少なくとも2点を眺める際の左右両眼の眼球の光軸を算出する光軸算出ステップと、
遠方注視の際、左右両眼の視軸(視線)が平行であることを拘束条件として、左右両眼の光軸と視軸との間のずれを算出するずれ算出ステップと、
光軸と視軸との間のずれに基づき、前記ユーザの注視点を算出する注視点算出ステップと、
を実行させる視線計測プログラム。 - 前記光軸算出ステップは、遠方の少なくとも4点を眺める際の左右両眼の眼球の光軸を算出し、
前記拘束条件は、左右両眼の視軸のそれぞれのベクトルの外積の大きさが0、もしくは、左右両眼の視軸のそれぞれの単位ベクトルの内積が1である請求項13に記載の視線計測プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013108441 | 2013-05-22 | ||
JP2013108441 | 2013-05-22 | ||
PCT/JP2014/002707 WO2014188727A1 (ja) | 2013-05-22 | 2014-05-22 | 視線計測装置、視線計測方法および視線計測プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014188727A1 JPWO2014188727A1 (ja) | 2017-02-23 |
JP6265348B2 true JP6265348B2 (ja) | 2018-01-24 |
Family
ID=51933294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015518087A Active JP6265348B2 (ja) | 2013-05-22 | 2014-05-22 | 視線計測装置、視線計測方法および視線計測プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10379609B2 (ja) |
JP (1) | JP6265348B2 (ja) |
WO (1) | WO2014188727A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6227996B2 (ja) * | 2013-12-18 | 2017-11-08 | 浜松ホトニクス株式会社 | 計測装置及び計測方法 |
US10157313B1 (en) | 2014-09-19 | 2018-12-18 | Colorado School Of Mines | 3D gaze control of robot for navigation and object manipulation |
JP6459421B2 (ja) * | 2014-11-17 | 2019-01-30 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
DE102015204283A1 (de) * | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erfassung der Blickrichtung einer Person |
KR101745140B1 (ko) * | 2015-09-21 | 2017-06-08 | 현대자동차주식회사 | 시선 추적 장치 및 방법 |
JP2017134558A (ja) | 2016-01-27 | 2017-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 |
EP3242228A1 (en) * | 2016-05-02 | 2017-11-08 | Artag SARL | Managing the display of assets in augmented reality mode |
CN110167823B (zh) * | 2016-07-01 | 2022-08-12 | 视力移动技术有限公司 | 用于驾驶员监测的系统和方法 |
JP6485819B2 (ja) * | 2016-07-27 | 2019-03-20 | フォーブ インコーポレーテッド | 視線検出システム、ずれ検出方法、ずれ検出プログラム |
JP6963820B2 (ja) * | 2016-08-12 | 2021-11-10 | 国立大学法人静岡大学 | 視線検出装置 |
EP3510562A1 (en) | 2016-09-07 | 2019-07-17 | Starship Technologies OÜ | Method and system for calibrating multiple cameras |
JP6776970B2 (ja) * | 2017-03-24 | 2020-10-28 | 株式会社Jvcケンウッド | 視線検出装置、視線検出方法及び視線検出プログラム |
JP2019021049A (ja) * | 2017-07-18 | 2019-02-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
TWI704473B (zh) | 2018-11-16 | 2020-09-11 | 財團法人工業技術研究院 | 視線向量偵測方向與裝置 |
TWI699671B (zh) * | 2018-12-12 | 2020-07-21 | 國立臺灣大學 | 減低眼球追蹤運算的方法和其眼動追蹤裝置 |
JP2020181281A (ja) * | 2019-04-24 | 2020-11-05 | 株式会社デンソーアイティーラボラトリ | 視線方向推定装置、視線方向推定装置の較正方法、およびプログラム |
CN112561780B (zh) * | 2020-12-02 | 2022-04-15 | 武汉大学 | 一种附加多视线特征约束的城市场景网格模型优化方法 |
CN116027910B (zh) * | 2023-03-29 | 2023-07-04 | 广州视景医疗软件有限公司 | 一种基于vr眼动追踪技术的眼位图生成方法及系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005063114A1 (ja) * | 2003-12-25 | 2005-07-14 | National University Corporation Shizuoka University | 視線検出方法および装置ならびに三次元視点計測装置 |
JP4649319B2 (ja) * | 2005-11-21 | 2011-03-09 | 日本電信電話株式会社 | 視線検出装置、視線検出方法、および視線検出プログラム |
US8730266B2 (en) | 2008-11-13 | 2014-05-20 | Queen's University At Kingston | System and method for integrating gaze tracking with virtual reality or augmented reality |
WO2010102037A2 (en) | 2009-03-03 | 2010-09-10 | The Ohio State University | Gaze tracking measurement and training system and method |
EP2236074B1 (en) | 2009-04-01 | 2021-05-26 | Tobii AB | Visual display with illuminators for gaze tracking |
JP5915981B2 (ja) * | 2010-08-09 | 2016-05-11 | 国立大学法人静岡大学 | 注視点検出方法及び注視点検出装置 |
CN103402440B (zh) * | 2010-12-06 | 2016-03-02 | 国立大学法人冈山大学 | 用于确认是否出现痴呆症症状的装置 |
US8493390B2 (en) | 2010-12-08 | 2013-07-23 | Sony Computer Entertainment America, Inc. | Adaptive displays using gaze tracking |
US9329683B2 (en) | 2010-12-08 | 2016-05-03 | National University Corporation Shizuoka University | Method for detecting point of gaze and device for detecting point of gaze |
US8510166B2 (en) | 2011-05-11 | 2013-08-13 | Google Inc. | Gaze tracking system |
US8885877B2 (en) | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8710986B2 (en) | 2012-01-19 | 2014-04-29 | Utechzone Co., Ltd. | Gaze tracking password input method and device utilizing the same |
JP2014064784A (ja) * | 2012-09-26 | 2014-04-17 | Renesas Microsystem:Kk | 視線検出装置、視線検出方法及びプログラム |
KR101438948B1 (ko) | 2012-12-12 | 2014-09-11 | 현대자동차주식회사 | 시선 추적 제어 장치 및 방법 |
US9179833B2 (en) | 2013-02-28 | 2015-11-10 | Carl Zeiss Meditec, Inc. | Systems and methods for improved ease and accuracy of gaze tracking |
-
2014
- 2014-05-22 WO PCT/JP2014/002707 patent/WO2014188727A1/ja active Application Filing
- 2014-05-22 JP JP2015518087A patent/JP6265348B2/ja active Active
- 2014-05-22 US US14/891,578 patent/US10379609B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPWO2014188727A1 (ja) | 2017-02-23 |
US20160086338A1 (en) | 2016-03-24 |
US10379609B2 (en) | 2019-08-13 |
WO2014188727A1 (ja) | 2014-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6265348B2 (ja) | 視線計測装置、視線計測方法および視線計測プログラム | |
JP6340503B2 (ja) | 目追跡システム及び利き目を検出する方法 | |
JP6083761B2 (ja) | 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法 | |
US10725539B2 (en) | Wearable eye tracking system with slippage detection and correction | |
US20190172222A1 (en) | Line-of-sight detection device | |
JP6014931B2 (ja) | 視線計測方法 | |
WO2015190204A1 (ja) | 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム | |
JP2013024662A (ja) | 3次元範囲計測システム、3次元範囲計測プログラムおよび記録媒体 | |
WO2018106220A1 (en) | Systems and methods for tracking motion and gesture of heads and eyes | |
US20180133593A1 (en) | Algorithm for identifying three-dimensional point-of-gaze | |
JP7168953B2 (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
US20170278269A1 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program | |
JP2018128749A (ja) | 視線計測装置、視線計測方法および視線計測プログラム | |
JP6452235B2 (ja) | 顔検出方法、顔検出装置、及び顔検出プログラム | |
CN106709398A (zh) | 凝视分析方法与装置 | |
JP5590487B2 (ja) | 視線計測方法及び視線計測装置 | |
JP2018101212A (ja) | 車載器および顔正面度算出方法 | |
JP2021049130A (ja) | 眼球構造推定装置 | |
JP6199038B2 (ja) | 視線分析装置 | |
JP6975001B2 (ja) | 傾き測定装置及び傾き測定方法 | |
JP2011172853A (ja) | 視線計測装置、方法及びプログラム | |
JP7269617B2 (ja) | 顔画像処理装置、画像観察システム、及び瞳孔検出システム | |
JP2016057906A (ja) | 視点位置の計測方法及び計測システム | |
JP6897467B2 (ja) | 視線検出装置、視線検出プログラム、及び視線検出方法 | |
Santini et al. | Depth perception in an anthropomorphic robot that replicates human eye movements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6265348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |