JP5998863B2 - Gaze detection device and gaze detection method - Google Patents
Gaze detection device and gaze detection method Download PDFInfo
- Publication number
- JP5998863B2 JP5998863B2 JP2012247869A JP2012247869A JP5998863B2 JP 5998863 B2 JP5998863 B2 JP 5998863B2 JP 2012247869 A JP2012247869 A JP 2012247869A JP 2012247869 A JP2012247869 A JP 2012247869A JP 5998863 B2 JP5998863 B2 JP 5998863B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- pupil
- subject
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
Description
この発明は、視線検出装置および視線検出方法に関する。 The present invention relates to a line-of-sight detection apparatus and a line-of-sight detection method.
最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し、療育を開始することで、その症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国においても、1歳半検診時の問診などによる早期発見を目指している。 Recently, people with developmental disabilities are said to be on the rise. It is known that developmental disabilities are detected early and treatment begins, thereby reducing the symptoms and increasing the effect of adapting to society. In Japan as well, we aim for early detection through interviews at the age of 1 and a half.
発達障害児の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。この特徴を利用した診断方法として、検査対象となる被験者に人物の顔画像を見せ、その際の被験者の注視点に基づいて発達障害を診断する方法が知られている(例えば、特許文献1参照)。 One characteristic of children with developmental disabilities is that they do not look at the eyes of their opponents. As a diagnostic method using this feature, a method is known in which a person's face image is shown to a subject to be examined and a developmental disorder is diagnosed based on the gaze point of the subject at that time (see, for example, Patent Document 1). ).
注視点を検出する技術として、カメラ近傍から赤外光を照射して被験者の目を撮像し、撮像画像の瞳孔の中心と角膜反射像との位置関係に基づき被験者の視線の方向を検出して注視点を特定する方法が知られている(例えば、特許文献2参照)。角膜反射像は、照射した赤外光が角膜表面において反射して画像に写り込んだ、瞳孔よりも明るく小さなスポット状の像である。 As a technique for detecting a gazing point, the subject's eyes are imaged by irradiating infrared light from the vicinity of the camera, and the direction of the subject's line of sight is detected based on the positional relationship between the center of the pupil of the captured image and the cornea reflection image. A method for specifying a gazing point is known (see, for example, Patent Document 2). The corneal reflection image is a spot-like image that is brighter and smaller than the pupil and is reflected on the image by the irradiated infrared light reflected from the corneal surface.
しかしながら、瞳孔像の中心位置と角膜反射像との位置関係に基づき被験者の視線方向を検出する方法は、被験者の目の特性(例えば瞳孔の輝度)等のバラツキにより、視線方向を精度良く検出することができない場合がある。このようなバラツキを補正する方法として赤外光の照射光量を調整する方法が知られている(例えば、特許文献3参照)。 However, the method of detecting the gaze direction of the subject based on the positional relationship between the center position of the pupil image and the corneal reflection image detects the gaze direction with high accuracy based on variations in the characteristics of the subject's eyes (for example, the luminance of the pupil). It may not be possible. As a method for correcting such a variation, a method of adjusting the amount of irradiation light of infrared light is known (for example, see Patent Document 3).
しかし、この方法は、瞳孔が開いている(瞳孔の開口が大きい)状態において赤外光の光量を減少させると角膜反射像の輝度が減少してしまい角膜反射像の検出が困難となってしまう、という問題があった。さらに、この方法は、瞳孔が閉じている(瞳孔の開口が小さい)状態において赤外光の光量を増加させても瞳孔の輝度はそれほど高くならない、という問題もあった。 However, in this method, when the amount of infrared light is reduced in a state where the pupil is open (the pupil opening is large), the luminance of the corneal reflection image is reduced and it becomes difficult to detect the corneal reflection image. There was a problem. Further, this method has a problem that the luminance of the pupil does not increase so much even if the amount of infrared light is increased in a state where the pupil is closed (the pupil opening is small).
本発明は、上記に鑑みてなされたものであって、精度良く視線を検出することができる視線検出装置および視線検出方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a gaze detection apparatus and a gaze detection method capable of accurately detecting a gaze.
上述した課題を解決し、目的を達成するために、本発明に係る視線検出装置は、被験者に対して赤外光を照射する照射部と、前記被験者に対して赤外光が照射されているタイミングにおいて前記被験者の目の画像を撮像する撮像部と、前記被験者の目の画像における瞳孔像の輝度に応じて、前記被験者の目に対して照射する可視光の光量を調整する調整部と、前記可視光の光量の調整後において、前記被験者の目の画像における前記瞳孔像および前記赤外光が角膜表面で反射した角膜反射像に基づき前記被験者の視線を検出する視線検出部と、を備える。 In order to solve the above-described problems and achieve the object, a line-of-sight detection device according to the present invention is configured to irradiate a subject with infrared light, and the subject is irradiated with infrared light. An imaging unit that captures an image of the eye of the subject at a timing, and an adjustment unit that adjusts the amount of visible light applied to the eye of the subject according to the luminance of a pupil image in the eye image of the subject; A line-of-sight detector that detects the line of sight of the subject based on the pupil image in the eye image of the subject and the corneal reflection image of the infrared light reflected on the corneal surface after the adjustment of the amount of visible light. .
また、本発明に係る視線検出方法は、被験者に対して赤外光を照射する照射ステップと、前記被験者に対して赤外光が照射されているタイミングにおいて前記被験者の目の画像を撮像する撮像ステップと、前記被験者の目の画像における瞳孔像の輝度に応じて、前記被験者の目に対して照射する可視光の光量を調整する調整ステップと、前記可視光の光量の調整後において、前記被験者の目の画像における前記瞳孔像および前記赤外光が角膜表面で反射した角膜反射像に基づき前記被験者の視線を検出する視線検出ステップと、を含む。 Moreover, the gaze detection method according to the present invention includes an irradiation step of irradiating a subject with infrared light, and imaging for capturing an image of the eye of the subject at a timing when the subject is irradiated with infrared light. The step of adjusting the amount of visible light applied to the eye of the subject in accordance with the luminance of the pupil image in the eye image of the subject; A line-of-sight detection step of detecting the line of sight of the subject based on the pupil image in the eye image and the corneal reflection image obtained by reflecting the infrared light on the corneal surface.
本発明によれば、精度良く視線を検出することができる。 According to the present invention, it is possible to detect a line of sight with high accuracy.
以下に、本発明に係る視線検出装置および視線検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a line-of-sight detection device and a line-of-sight detection method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.
図1は、本実施の形態に係る診断支援装置100の概略構成を示す図である。診断支援装置100は、医師による発達障害の診断の指標となる評価値を得るための検査、すなわち診断を支援するための検査を行う装置である。
FIG. 1 is a diagram showing a schematic configuration of a
診断支援装置100は、第1表示部101と、第2表示部102と、スピーカ103と、ステレオカメラ110と、赤外LED光源121,122と、駆動・IF部130と、制御部140と、記憶部150と、照明駆動部160とを備えている。
The
第1表示部101は、被験者に注視させる画像等を表示する。第2表示部102は、診断支援装置100の操作内容および診断結果等を表示する。第1表示部101および第2表示部102は、例えばモニタ画面である。スピーカ103は、診断結果などを音声出力する。また、スピーカ103は、検査時に被験者に注意を促すための音声を出力する。
The
ステレオカメラ110は、被験者から見て第1表示部101の下側に設置されている。ステレオカメラ110は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ111と左カメラ112の1組のカメラを備えている。
The
右カメラ111および左カメラ112の各レンズの周囲には、円周方向に赤外LED(Light Emitting Diode)光源121,122がそれぞれ配置されている。赤外LED光源121,122は、被験者に対して赤外光を照射する。赤外LED光源121,122は、内周のLEDと外周のLEDとを含む。内周のLEDと外周のLEDについては、後述する。
Around each lens of the
ステレオカメラ110は、赤外LED光源121,122から赤外線が照射されているタイミングにおいて、被験者の少なくとも目を含む顔を撮像する。すなわち、ステレオカメラ110は、被験者の顔からの赤外線の反射光の画像を撮像する。
The
なお、ステレオカメラ110は、被験者の顔を撮像可能な位置に設置されていればよく、その設置位置は実施の形態に限定されるものではない。また、撮像される画像は、被験者の少なくとも目を含む画像であれば、顔の一部のみを含む画像であってもよく、顔以外を含む画像であってもよい。
The
駆動・IF部130は、ステレオカメラ110、赤外LED光源121,122およびスピーカ103に含まれる各部を駆動する。また、駆動・IF部130は、ステレオカメラ110、赤外LED光源121,122およびスピーカ103に含まれる各部と、制御部140とのインタフェースとして機能する。
The drive /
制御部140は、第1表示部101、第2表示部102、駆動・IF部130、記憶部150および照明駆動部160と接続している。制御部140は、第1表示部101および第2表示部102に表示すべき画像等を制御する。また、制御部140は、照明駆動部160を介して第1表示部101の発光量を調整する。
The
制御部140は、被験者の視線を検出して、第1表示部101上におけるいずれの位置を被験者が注視しているかを検出する。続いて、制御部140は、検出した注視点に基づいて、発達障害の診断のための評価値を算出する。
The
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば第1表示部101に表示する画像等を記憶する。
The
照明駆動部160は、制御部140からの制御に応じて、第1表示部101から発光される可視光の発光量を調整する。照明駆動部160は、一例として、制御部140の制御に応じて第1表示部101のモニタ輝度値等を変更したり、水平方向の端部のLED照明の電流量を変更したりすることにより、可視光の発光量を調整する。なお、第1表示部101から発光される可視光の発光量の調整については詳細を後述する。
The
図2は、診断支援装置100の処理に利用される座標系を示す図である。第1表示部101は、横方向を長辺とする長方形の画面である。診断支援装置100は、図2に示すような、第1表示部101の画面の中央位置を原点として、上下をY座標(上を+方向とする)、横をX座標(第1表示部101に向かって右を+方向とする)、奥行きをZ座標(第1表示部101の手前を+方向とする)とするXYZ座標系において、被験者の注視点の位置の特定処理を行う。
FIG. 2 is a diagram illustrating a coordinate system used for processing of the
図3は、本実施形態に係る診断支援装置100の詳細構成を示す図である。赤外LED光源121は、内周のLEDである波長1−LED123と、外周のLEDである波長2−LED124とを有する。赤外LED光源122は、内周のLEDである波長1−LED125と、外周のLEDである波長2−LED126とを有する。
FIG. 3 is a diagram illustrating a detailed configuration of the
波長1−LED123,125は、波長1の赤外線を照射する。波長2−LED124,126は、波長2の赤外線を照射する。波長1および波長2は、互いに異なる波長である。波長1は、例えば900nm未満の波長の赤外光であり、本実施形態においては850nmの波長の光である。また、波長2は、例えば900nm以上の波長の赤外光であり、本実施形態においては950nmの波長の光である。
Wavelength 1-
900nm以上の波長の光は900nm未満の波長の光と比較して水分に吸収される吸収度が高い。従って、900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像を得ることができる。 Light having a wavelength of 900 nm or more has a higher degree of absorption that is absorbed by moisture than light having a wavelength of less than 900 nm. Accordingly, when the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, the pupil is brighter than when the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. An image can be obtained.
また、波長1−LED123は、右カメラ111のレンズの周囲であって内周側に配置されている。波長2−LED124は、右カメラ111のレンズの周囲であって、波長1−LED123よりも外周側に配置されている。また、波長1−LED125は、左カメラ112のレンズの周囲であって内周側に配置されている。波長2−LED126は、左カメラ112のレンズの周囲であって、波長1−LED125よりも外周側に配置されている。
Further, the wavelength 1-
右カメラ111および左カメラ112のそれぞれのレンズの光軸に近い位置に光源が配置されている場合、遠い位置に配置されている場合よりも、被写体から反射してそのまま戻ってくる光量が多くなる。従って、右カメラ111および左カメラ112は、波長1−LED123および波長1−LED125が赤外光を発光したタイミングにおいて被験者の目を撮像すると、いわゆる赤目現象と同様に、瞳孔を通過して網膜まで達した光の反射光を撮像することができる。しかし、右カメラ111および左カメラ112は、波長2−LED125および波長2−LED126が赤外光を発光したタイミングにおいて被験者の目を撮像しても、瞳孔を通過して網膜まで達した光の反射光を撮像することはできない。
When the light source is arranged near the optical axis of each lens of the
従って、右カメラ111および左カメラ112は、波長1−LED123および波長1−LED125から900nm未満の赤外光が発光されたタイミングにおいて、被験者の目を撮像した場合、瞳孔像および角膜反射像が写った画像(明瞳孔画像)を撮像することができる。また、右カメラ111および左カメラ112は、波長2−LED124および波長2−LED126から900nm以上の赤外光が発光されたタイミングにおいて、被験者の目を撮像した場合、角膜反射像は写っているが瞳孔像は映っていない画像(暗瞳孔画像)を撮像することができる。
Therefore, the
駆動・IF部130は、カメラIF131,132と、LED駆動制御部133と、スピーカ駆動部134とを備えている。カメラIF131およびカメラIF132は、それぞれ右カメラ111および左カメラ112と接続する。カメラIF131,132は、左右カメラ111,112を駆動する。右カメラ111は、左カメラ112およびLED駆動制御部133にフレーム同期信号を送信する。
The drive /
LED駆動制御部133は、波長1−LED123,125および波長2−LED124,126の発光を制御する。具体的には、LED駆動制御部133は、このフレーム同期信号に基づいて、第1フレームで左右の波長1の赤外線光源(波長1−LED123、波長1−LED125)を発光させる。この発光タイミングに対応して、左右カメラ111,112は、画像を撮像する。LED駆動制御部133は、例えば、左右LED123,125の発光タイミングと左右カメラ111,112の撮像タイミングを同期させながら、左右の発光タイミングをずらして発光させる。左右カメラ111,112は、左右それぞれに対応したLED発光による映像を撮像する。撮像された画像は、カメラIF131,132を介して制御部140に入力される。
The LED
同様に、LED駆動制御部133は、第1フレームのタイミングとはずれたタイミングの第2フレームで、左右の波長2の赤外線光源(波長2−LED124、波長2−LED126)を発光させる。この発光タイミングに対応して、左右カメラ111,112は、画像を撮像する。LED駆動制御部133は、例えば、左右LED124,126の発光タイミングと左右カメラ111,112の撮像タイミングを同期させながら、左右の発光タイミングをずらして発光させる。左右カメラ111,112は、左右それぞれに対応したLED発光による映像を撮像する。撮像された画像は、カメラIF131,132を介して制御部140に入力される。スピーカ駆動部134は、スピーカ103を駆動する。
Similarly, the LED
制御部140は、診断支援装置100全体を制御する。制御部140は、表示制御部141と、調整部142と、瞳孔中心/角膜反射検出部143と、注視点検出部143と、診断部145とを有する。
The
表示制御部141は、第1表示部101および第2表示部102への各種情報の表示を制御する。表示制御部141は、例えば第1表示部101に検査画像を表示する。検査画像は、被験者の注視点を検出するための対象画像であり、例えば人物の顔画像である。
The
調整部142は、ステレオカメラ110により撮像された被験者の目の画像における瞳孔像の輝度に応じて、被験者の目に対して照射する可視光の光量を調整する。本実施形態においては、調整部142は、第1表示部101から発光される可視光の発光量を、瞳孔像の輝度に応じて適切な値に変更する。調整部142は、この調整処理を注視点の検出に先だって実行する。これにより、診断支援装置100は、被験者に照射される可視光の光量が適切に調整された状態で視線を検出することができるので、被験者の注視点を精度良く検出することができる。なお、可視光の調整処理については図10から図16を参照して詳細を後述する。
The
瞳孔中心/角膜反射検出部143は、調整部142により第1表示部101から発光される可視光の発光量の調整後において、ステレオカメラ110により撮像された画像に基づいて被験者の瞳孔中心の位置および被験者の角膜反射像の位置を検出する。瞳孔中心/角膜反射検出部143は、診断支援処理の実行中において、検出処理を実行する。なお、瞳孔中心の位置および角膜反射像の位置の検出方法については、図5等を参照して詳細を後述する。
The pupil center / corneal reflection detection unit 143 adjusts the position of the pupil center of the subject based on the image captured by the
注視点検出部144は、瞳孔中心/角膜反射検出部143により検出された瞳孔中心の位置および角膜反射像の位置に基づき、被験者の注視点を検出する。より具体的には、注視点検出部144は、右カメラ111および左カメラ112のそれぞれの撮像画像から検出された右目の瞳孔中心および角膜反射像の位置関係に基づき、右目の視線の3次元空間内での方向を算出する。また、注視点検出部144は、右カメラ111および左カメラ112のそれぞれの撮像画像から検出された左目の瞳孔中心および角膜反射像の位置関係に基づき、左目の視線の3次元空間内での方向を算出する。注視点検出部144は、被験者の目の画像における瞳孔像および赤外光が角膜表面で反射した角膜反射像に基づき被験者の視線を検出する視線検出部の一例である。
The gaze point detection unit 144 detects the gaze point of the subject based on the position of the pupil center and the position of the corneal reflection image detected by the pupil center / corneal reflection detection unit 143. More specifically, the gazing point detection unit 144 is based on the positional relationship between the pupil center of the right eye and the cornea reflection image detected from the captured images of the
さらに、図4に示されるように、注視点検出部144は、被験者201の右目の視線と左目の視線とが交差した位置が空間内のいずれの位置であるかを、図2で示した空間座標上で算出する。これにより、注視点検出部144は、被験者が第1表示部101上のいずれの位置を注視しているかを検出することができる。また、注視点検出部144は、左右それぞれの視線と図2のZ=0のXY平面との交点を注視点とすることもできる。この場合、2注視点求められるが、注視点検出部144は、2注視点を平均した値を注視点としてもよい。
Further, as shown in FIG. 4, the gaze point detection unit 144 determines which position in the space the intersection of the right eye line of sight and the left eye line of the subject 201 is in the space shown in FIG. 2. Calculate on coordinates. Thereby, the gazing point detection unit 144 can detect which position on the
診断部145は、被験者が注視している第1表示部101上の位置と、第1表示部101上に表示されている画像の内容との関係から、医師による発達障害の診断の指標となる評価値を算出する。発達障害児の特徴として、対面する相手の目を見ないことが挙げられる。診断部145は、この特徴を利用し、検査対象となる人物すなわち被験者に、母親等の顔画像を見せた際に、被験者が顔画像中の目を見ている時間と、目以外を見ている時間とを計測し、計測結果に基づいて評価値を算出する。
The
図5は、瞳孔の中心位置および角膜反射像の位置を検出する処理の流れを示すフローチャートである。図6−1〜図6−3は、図5の処理中において取得される明瞳孔画像、暗瞳孔画像、差分画像および画像内の輝度分布を示す。 FIG. 5 is a flowchart showing a flow of processing for detecting the center position of the pupil and the position of the cornea reflection image. 6A to 6C illustrate the bright pupil image, the dark pupil image, the difference image, and the luminance distribution in the image acquired during the process of FIG.
診断支援装置100の制御部140は瞳孔中心/角膜反射検出部143において、注視点の検出処理毎に、図5に示されるステップS101からステップS110の処理を実行する。まず、ステップS101において、制御部140は、瞳孔中心/角膜反射検出部143において、明瞳孔画像を取得する。
The
ここで、明瞳孔画像は、内周のLEDである波長1−LED123および波長1−LED125を照射したタイミングで撮像された被験者の目の画像である。このため、図6−1に示されるように、明瞳孔画像には、虹彩像211、瞳孔像212および角膜反射像213が含まれる。なお、虹彩像211は最も輝度が低く略楕円状の部分であり、角膜反射像213は最も輝度が高い比較的に小さなスポット状の部分である。また、瞳孔像212は、虹彩像211と角膜反射像213との間の輝度であり、虹彩像211より小さく角膜反射像213より大きい楕円状の部分である。
Here, the bright pupil image is an image of the eye of the subject captured at the timing when the wavelength 1-
続いて、ステップS102において、制御部140は、瞳孔中心/角膜反射検出部143において、暗瞳孔画像を取得する。ここで、暗瞳孔画像は、外周のLEDである波長2−LED124および波長2−LED126を照射したタイミングで撮像された被験者の目の画像である。このため、図6−2に示されるように、暗瞳孔画像には、虹彩像211および角膜反射像213は含まれるが、瞳孔像212は明るくならず虹彩像より暗くなる場合が多い(輝度が低くなる)。
Subsequently, in step S102, the
なお、明瞳孔画像および暗瞳孔画像は、異なるタイミングにおいて撮像された画像である。例えば、明瞳孔画像および暗瞳孔画像は、連続する異なるフレームにおいて撮像された画像である。 Note that the bright pupil image and the dark pupil image are images captured at different timings. For example, the bright pupil image and the dark pupil image are images captured in consecutive different frames.
続いて、ステップS103において、制御部140は、瞳孔中心/角膜反射検出部143において、明瞳孔画像から暗瞳孔画像を減算した差分画像を算出する。明瞳孔画像および暗瞳孔画像は、異なるタイミングで撮像されているが短い間隔で撮像されるので、多少の誤差を含むものの、瞳孔像212以外の領域の輝度はほぼ同一となる。従って、図6−3に示されるように、差分画像は、瞳孔像212の領域の輝度が高くなり、瞳孔像212以外の領域の輝度は0となる。
Subsequently, in step S103, the
続いて、ステップS104において、制御部140は、瞳孔中心/角膜反射検出部143において、差分画像中における、瞳孔像212の領域と、瞳孔像212以外の領域とを分離するための第1閾値を算出する。例えば、制御部140は、図6−3に示されるように、差分画像の最大値と最小値との中間値を第1閾値として算出する。
Subsequently, in step S104, the
続いて、ステップS105において、制御部140は、瞳孔中心/角膜反射検出部143において、差分画像を第1閾値により2値化する。続いて、ステップS106において、制御部140は、瞳孔中心/角膜反射検出部143において、差分画像の2値化画像から、瞳孔の位置を探索する。
Subsequently, in step S105, the
続いて、ステップS107において、制御部140は、瞳孔中心/角膜反射検出部143において、瞳孔像212の中心位置を算出する。具体的には、瞳孔中心/角膜反射検出部143は、差分画像の2値化画像から探索した瞳孔像212の位置の近傍における、明瞳孔画像上の虹彩像211の輝度よりも高い領域に対して、楕円近似処理等を行い、瞳孔像212の外周(楕円)を検出する。そして、瞳孔中心/角膜反射検出部143は、検出した楕円の中心を、瞳孔像212の中心位置として特定する。
Subsequently, in step S107, the
続いて、ステップS108において、制御部140は、瞳孔中心/角膜反射検出部143において、明瞳孔画像から、角膜反射像213の領域と角膜反射像213以外の領域とを分離するための第2閾値を算出する。例えば、瞳孔中心/角膜反射検出部143は、図6−1に示されるように、明瞳孔画像の最大値と、瞳孔の輝度値(例えば瞳孔像212の平均輝度)との中間値を第2閾値として算出する。
Subsequently, in step S108, the
続いて、ステップS109において、制御部140は、瞳孔中心/角膜反射検出部143において、明瞳孔画像を第2閾値により2値化する。続いて、ステップS110において、制御部140は、明瞳孔画像の2値化画像から角膜反射像213の位置を特定する。制御部140は、瞳孔中心/角膜反射検出部143において、以上の処理を実行することにより、瞳孔中心の位置および角膜反射像の位置を特定することができる。
Subsequently, in step S109, the
図7−1は、瞳孔が広がっており瞳孔像212の輝度が高い状態の明瞳孔画像を示す図である。図7−2は、瞳孔が狭まっており瞳孔像212の輝度が低い状態の明瞳孔画像を示す図である。
FIG. 7A is a diagram illustrating a bright pupil image in which the pupil is widened and the luminance of the
瞳孔像212の輝度は、瞳孔の大きさに応じて異なる。具体的には、瞳孔が広がっている場合には、図7−1に示されるように、瞳孔像212の輝度は高くなる。また、瞳孔が狭まっている場合には、図7−2に示されるように、瞳孔像212の輝度は低くなる。しかしながら、瞳孔像212の輝度は、個人差が大きく、同じ明るさの赤外光を照射したとしても人によって値が異なる。
The brightness of the
図8−1、図8−2および図8−3は、瞳孔が広がっている状態における、明瞳孔画像、暗瞳孔画像、差分画像および輝度分布を示す図である。瞳孔が広がっている状態の場合、瞳孔像212の輝度は高くなる。従って、瞳孔が広がっている状態の差分画像は、図8−3に示されるように、最大値(瞳孔像212の輝度に対応)と最小値(0レベル)との差が大きくなる。よって、制御部140は、瞳孔像212の領域とそれ以外の領域とを確実に分離することできる。
8A, 8B, and 8C are diagrams illustrating a bright pupil image, a dark pupil image, a difference image, and a luminance distribution in a state where the pupil is widened. When the pupil is widened, the luminance of the
しかし、瞳孔像212の輝度が高いと、図8−1に示されるように、明瞳孔画像は、最大値(角膜反射像213の輝度に対応)と瞳孔像212の輝度との差が小さくなる。従って、この場合、制御部140は、角膜反射像213の領域とそれ以外の領域とを精度良く分離することができない。最悪の場合、明瞳孔画像の最大値と瞳孔像212の輝度とがほとんど一致してしまい、制御部140は、角膜反射像213の領域を検出できない。
However, when the luminance of the
図9−1、図9−2および図9−3は、瞳孔が狭まっている状態における、明瞳孔画像、暗瞳孔画像、差分画像および輝度分布を示す図である。瞳孔が狭まっている状態の場合、瞳孔像212の輝度は低くなる。従って、瞳孔が狭まっている状態の明瞳孔画像は、図9−1に示されるように、最大値(角膜反射像213の輝度に対応)と瞳孔像212の輝度との差が大きくなる。よって、制御部140は、角膜反射像213の領域とそれ以外の領域とを確実に分離することができる。
9A, 9B, and 9C are diagrams illustrating a bright pupil image, a dark pupil image, a difference image, and a luminance distribution in a state where the pupil is narrowed. When the pupil is narrowed, the luminance of the
しかし、瞳孔像212の輝度が低いと、図9−3に示されるように、差分画像は、最大値(瞳孔像212の輝度に対応)と最小値(0レベル)との差が小さくなる。従って、制御部140は、瞳孔像212の領域とそれ以外の領域とを精度良く分離することができない。最悪の場合、差分画像の最大値と最小値とがほとんど一致してしまい、制御部140は、瞳孔像212の領域を検出できない。
However, when the luminance of the
ここで、瞳孔像212の領域および角膜反射像213の領域の両方を精度良く検出するには、瞳孔像212の輝度が、明瞳孔画像の輝度の最大値の1/2の程度の値となっていることが好ましい。この場合には、図6−3に示したように差分画像の最大値と最小値との差が大きくなるとともに、図6−1に示したように明瞳孔画像の最大値と瞳孔像212の輝度との差が大きくなる。よって、このような場合には、制御部140は、瞳孔像212の領域、角膜反射像213の領域、および、それ以外の領域のそれぞれを確実に分離することができる。
Here, in order to accurately detect both the region of the
そこで、本実施形態に係る制御部140は、瞳孔像の中心位置の検出および角膜反射像の位置の検出に先立って、被験者に対して照射する可視光の光量を予め調整して、被験者の瞳孔の大きさを調整する。具体的には、制御部140は、明瞳孔画像から得られる瞳孔像212の輝度が、明瞳孔画像の輝度の最大値の1/2の値に近づくように、可視光の光量を調整する。このことにより、制御部140は、瞳孔像212の領域、角膜反射像213の領域、および、それ以外の領域のそれぞれを確実に分離して、被験者の視線を精度良く検出することができる。
Therefore, the
さらに、本実施形態においては、制御部140は、被験者に画像を表示する第1表示部101から発光される可視光の発光量を、瞳孔像212の輝度に応じて変更する。第1表示部101は視線検出のための映像を表示するので、被験者は、確実に第1表示部101を見ている。従って、制御部140は、第1表示部101から発光される可視光の光量を調整することにより、被験者の瞳孔の大きさを確実かつ容易に調整することができる。以下、制御部140による第1表示部101の制御方法の具体例について説明する。制御部140は、以下の第1表示部101の制御を例えば、調整部142によって行う。
Furthermore, in the present embodiment, the
図10−1は、輝度を高くした場合における第1表示部101の画面を示す図である。図10−2は、輝度を低くした場合における第1表示部101の画面を示す図である。
FIG. 10A is a diagram illustrating the screen of the
制御部140は、調整部142において、検出した瞳孔像の輝度に応じて、第1表示部101のバックライトの発光量を外部から制御することにより、第1表示部101の輝度を変更する。より具体的には、調整部142は、検出した瞳孔像の輝度が高い場合には、図10−1に示されるように第1表示部101の画面全体の輝度を上げて、被験者の瞳孔を狭める。また、調整部142は、検出した瞳孔像の輝度が低い場合には、図10−2に示されるように第1表示部101の画面全体の輝度を下げて、被験者の瞳孔を広げる。
The
また、制御部140は、調整部142において、内容が同一で輝度の異なる映像コンテンツを、瞳孔像の輝度に応じて切り替えて第1表示部101に表示してもよい。例えば、調整部142は、内容が同一で輝度が異なる複数の映像コンテンツを予め準備しておく。そして、調整部142は、被験者の瞳孔像の輝度を測定し、測定結果に応じて複数の映像コンテンツのうち何れか1つを選択して表示する。
In addition, the
例えば、調整部142は、瞳孔像の輝度が予め定められたレベルより高い場合には、図10−1に示されるように第1表示部101に輝度の高い映像コンテンツを表示して、被験者の瞳孔を狭める。また、調整部142は、瞳孔像の輝度が予め定められたレベルより低い場合には、図10−2に示されるように第1表示部101に輝度の低い映像コンテンツを表示して、被験者の瞳孔を広げる。
For example, when the luminance of the pupil image is higher than a predetermined level, the
図11−1は、端部LED照明311の輝度を高くした場合における第1表示部101の画面を示す図である。図11−2は、端部LED照明311の輝度を低くした場合における第1表示部101の画面を示す図である。
FIG. 11A is a diagram illustrating a screen of the
制御部140は、調整部142において、白色を発光する端部LED照明311の輝度を、瞳孔像の輝度に応じて変更してもよい。端部LED照明311は、第1表示部101の例えば右側および左側のそれぞれの端部に設けられる。端部LED照明311は、右側および左側に加えてまたは右側および左側に代えて、上側および下側に設けられてもよい。端部LED照明311は、流される電流量が、図1等に示した照明駆動部160を介して制御部140により制御される。
The
制御部140は、調整部142において、検出した瞳孔像の輝度が高い場合には、図11−1に示されるように端部LED照明311の輝度を上げて、被験者の瞳孔を狭める。また、制御部140は、検出した瞳孔像の輝度が低い場合には、図11−2に示されるように端部LED照明311の輝度を下げて、被験者の瞳孔を広げる。
When the luminance of the detected pupil image is high in the
図12−1は、端部領域312に輝度の高い画像を表示した場合における第1表示部101の画面を示す図である。図12−2は、端部領域312に輝度の低い画像を表示した場合における第1表示部101の画面を示す図である。
FIG. 12A is a diagram illustrating a screen of the
制御部140は、調整部142において、瞳孔像の輝度に応じて、第1表示部101の端部領域312に表示される画像の輝度を切り替えてもよい。端部領域312は、例えばワイド画面における左右の端部分の表示領域である。
The
この場合、制御部140は、調整部142において、被験者の瞳孔像の輝度を測定し、測定結果に応じて端部領域312の画像を切り替えて、画面の中央領域に表示される映像コンテンツと合成して第1表示部101に表示させる。より具体的には、調整部142は、黒、暗い灰色、灰色、明るい灰色、および白といった画像のうち何れか1つを瞳孔像の輝度に応じて選択して、端部領域312の画像として合成表示させる。
In this case, in the
例えば、調整部142は、瞳孔像の輝度が予め定められたレベルより高い場合には、図12−1に示されるように端部領域312に輝度の高い画像(例えば白)を表示して、被験者の瞳孔を狭める。また、制御部140は、瞳孔像の輝度が予め定められたレベルより低い場合には、図12−2に示されるように端部領域312に輝度の低い画像(例えば黒)を表示して、被験者の瞳孔を広げる。
For example, when the brightness of the pupil image is higher than a predetermined level, the
図13は、第1表示部101の輝度を調整することにより被験者の目に対して照射する可視光の光量を調整する処理を示すフローチャートである。まず、ステップS1000において、制御部140は、例えば表示制御部141において、第1表示部101のモニタ輝度値を中央値として、第1表示部101に基準映像(輝度が中央値の標準映像)を表示させる。次に、ステップS1001において、制御部140は、カウンタ値(CNT)を0にクリアする。このカウンタ値(CNT)は、処理のループ回数を表す。
FIG. 13 is a flowchart illustrating a process of adjusting the amount of visible light irradiated to the subject's eyes by adjusting the luminance of the
次に、ステップS1002において、制御部140は、瞳孔中心/角膜反射検出部143において、差分画像に基づき瞳孔位置を検出する。本実施形態においては、ステレオカメラ110により両目を撮像しているので、瞳孔中心/角膜反射検出部143は、右カメラ111で撮像した右目および左目の瞳孔、および、左カメラ112で撮像した右目および左目の瞳孔の合計4つの瞳孔の位置を検出する。続いて、ステップS1003において、瞳孔中心/角膜反射検出部143は、明瞳孔画像より瞳孔の輝度を検出する。この場合、瞳孔中心/角膜反射検出部143は、4つの明瞳孔画像における瞳孔の平均値を検出する。
Next, in step S <b> 1002, the
続いて、ステップS1004において、制御部140は、例えば、調整部142において、検出した瞳孔の輝度を目標範囲と比較する。目標範囲は、4つの明瞳孔画像における瞳孔の平均の輝度が適正となる上限と下限を予め定めたものである。
Subsequently, in step S1004, the
瞳孔の輝度が目標範囲の上限より高い場合(ステップS1005のYes)、制御部140は、調整部142において、処理をステップS1006に進める。ステップS1006において、制御部140は、調整部142において、第1表示部101のモニタ輝度値を所定値だけ上げて、処理をステップS1009に進める。
When the luminance of the pupil is higher than the upper limit of the target range (Yes in step S1005), the
モニタ輝度値を上げると、第1表示部101の画面が明るくなり、被験者の目の虹彩が縮んで、瞳孔が狭くなる。これにより眼球内部に入る赤外線光量も減少するので、瞳孔の輝度も減少する。また、赤外線光量そのものは変化しないので、角膜反射像の輝度は変化しない。
When the monitor brightness value is increased, the screen of the
ステップS1004で比較した結果、瞳孔の輝度が目標範囲の下限より低い場合(ステップS1007のYes)、制御部140は、処理をステップS1008に進める。ステップS1008において、制御部140は、調整部142において、第1表示部101のモニタ輝度値を所定値だけ下げて、処理をステップS1009に進める。
As a result of the comparison in step S1004, when the luminance of the pupil is lower than the lower limit of the target range (Yes in step S1007), the
モニタ輝度値を下げると、第1表示部101の画面が暗くなり、被験者の目の虹彩が伸びて、瞳孔が広くなる。これにより眼球内部に入る赤外線光量も増加するので、瞳孔の輝度も増加する。また、赤外線光量そのものは変化しないので、角膜反射像の輝度は変化しない。
When the monitor luminance value is lowered, the screen of the
ステップS1004で比較した結果、瞳孔の輝度が目標範囲の上限以下であり且つ目標範囲の下限以上である場合(ステップS1007のNo)、制御部140は、調整部142において、瞳孔の輝度が目標範囲内であるので、処理を終了する。
As a result of the comparison in step S1004, when the luminance of the pupil is equal to or lower than the upper limit of the target range and equal to or higher than the lower limit of the target range (No in step S1007), the
また、ステップS1009において、制御部140は、調整部142において、タイマーにより所定時間を計時して、第1表示部101の画面の輝度が変化してから、被験者の目の虹彩が反応して瞳孔の大きさが変わるまでの時間を待機する。そして、所定時間経過後、制御部140は、調整部142において、処理をステップS1010に進める。
In step S1009, the
ステップS1010において、制御部140は、調整部142において、カウンタ値(CNT)を1増加させる。続いて、ステップS1011において、制御部140は、調整部142において、カウンタ値(即ち、ループ回数)が予め設定された上限回数(K)未満か否かを判断する。
In step S1010, the
制御部140は、調整部142において、カウンタ値(CNT)が上限回数(K)未満の場合(ステップS1011のYes)、処理をステップS1002に戻して、再度、ステップS1002からの処理を実行させる。また、制御部140は、カウンタ値(CNT)が上限回数(K)以上の場合(ステップS1011のNo)、当該フローを抜けて処理を終了する。
When the counter value (CNT) is less than the upper limit number (K) in the adjustment unit 142 (Yes in step S1011), the
以上の処理を実行することにより、制御部140は、調整部142において、第1表示部101から発光される可視光の光量を、被験者の瞳孔の輝度が適切な値となるように調整することができる。
By executing the above processing, the
なお、制御部140は、以上の処理を注視点の検出に先立って実行するが、これに代えて、注視点の検出中に実行してもよい。この場合には、制御部140は、カウンタ値(CNT)が上限回数(K)以上の場合に処理を終了せずに、注視点の検出処理が完了するまでループを実行し続ける。
Note that the
図14は、第1表示部101に表示する映像コンテンツを切り替えることにより被験者の目に対して照射する可視光の光量を調整する処理を示すフローチャートである。まず、ステップS1100において、制御部140は、例えば表示制御部141において、第1表示部101に基準映像(輝度が中央値の標準映像)を表示させる。
FIG. 14 is a flowchart illustrating a process of adjusting the amount of visible light applied to the subject's eyes by switching the video content displayed on the
続いて、制御部140は、瞳孔中心/角膜反射検出部143において、ステップS1101およびステップS1102の処理を実行する。ステップS1101およびステップS1102の処理は、図13のステップS1002およびステップS1003の処理と同様である。
Subsequently, the
続いて、ステップS1103において、制御部140は、調整部142において、瞳孔の輝度を複数の閾値(例えばK1、K2、K3、K4)のそれぞれと比較する。ここで、制御部140は、予め内容が同一で輝度の異なる複数の映像(例えば第1の映像、第2の映像、第3の映像、第4の映像および第5の映像)を予め準備している。本例においては、第1の映像の輝度が最も高く、徐々に輝度が低くなり、第5の映像の輝度が最も低い。また、閾値は、K1が最も高く、徐々に低くなり、K4が最も低い。
Subsequently, in step S1103, the
そして、制御部140は、調整部142において、比較の結果、瞳孔の輝度が閾値K1より高ければ(ステップS1104のYes)、ステップS1105において第1の映像を選択する。また、制御部140は、調整部142において、比較の結果、瞳孔の輝度が閾値K1以下且つK2より高ければ(ステップS1104のNo、且つ、ステップS1106のYes)、ステップS1107において第2の映像を選択する。
If the
また、制御部140は、調整部142において、比較の結果、瞳孔の輝度が閾値K2以下且つK3より高ければ(ステップS1106のNo、且つ、ステップS1108のYes)、ステップS1109において第3の映像を選択する。また、制御部140は、調整部142において、比較の結果、瞳孔の輝度が閾値K3以下且つK4より高ければ(ステップS1108のNo、且つ、ステップS1110のYes)、ステップS1111において第4の映像を選択する。
If the
また、制御部140は、調整部142において、比較の結果、瞳孔の輝度が閾値K4以下であれば(ステップS1110のNo)、ステップS1112において第5の映像を選択する。そして、制御部140は、調整部142において、第1から第5の映像の何れかを選択すると、当該フローを抜けて処理を終了する。以上の処理を実行することにより、調整部142は、適切な輝度の映像を選択して、被験者の瞳孔の輝度が適切な値となるように第1表示部101から発光される可視光の光量を調整することができる。
In addition, when the luminance of the pupil is equal to or lower than the threshold K4 as a result of the comparison in the adjustment unit 142 (No in Step S1110), the
図15は、端部LED照明311の輝度を調整することにより被験者の目に対して照射する可視光の光量を調整する処理を示すフローチャートである。図15のステップS1200〜S1211の処理は、第1表示部101のモニタ輝度を制御することに代えて、第1表示部101の左右の端部に設けられた端部LED照明311を制御する点において異なるが、その他の処理は、図13に示したステップS1000〜S1011の処理と同一である。
FIG. 15 is a flowchart showing a process of adjusting the amount of visible light irradiated to the subject's eyes by adjusting the luminance of the
従って、図15に示した処理を実行する場合には、制御部140は、調整部142において、第1表示部101のモニタ輝度に代えて端部LED照明311を、図13に示した処理と同様に制御する。これにより、調整部142は、適切な輝度の映像を選択して、被験者の瞳孔の輝度が適切な値となるように第1表示部101から発光される可視光の光量を調整することができる。
Therefore, when executing the process shown in FIG. 15, the
また、制御部140は、図15の処理を注視点の検出中に実行してもよい。この場合には、図13の場合と同様に、制御部140は、カウンタ値(CNT)が上限回数(K)以上の場合に処理を終了せずに、注視点の検出処理が完了するまでループを実行し続ける。
Further, the
図16は、端部領域312に表示する画像の輝度を切り替えることにより被験者の目に対して照射する可視光の光量を調整する処理を示すフローチャートである。図16のステップS1300〜S1312の処理は、第1表示部101の全面に表示する映像コンテンツを切り替えることに代えて、第1表示部101の端部領域312に表示される画像を切り替えて中央領域の画像と合成する点において異なるが、その他の処理は図14に示したステップS1100〜S1112の処理と同一である。
FIG. 16 is a flowchart showing a process of adjusting the amount of visible light irradiated to the subject's eyes by switching the luminance of the image displayed in the
従って、図16に示した処理を実行する場合には、制御部140は、調整部142において、第1表示部101の全面に表示される映像コンテンツに代えて、端部領域312に表示される画像を図14に示した処理と同様に選択して、中央領域の画像と合成する。これにより、制御部140は、調整部142において、第1表示部101から発光される可視光の光量を、被験者の瞳孔の輝度が適切な値となるように調整することができる。
Therefore, when executing the processing shown in FIG. 16, the
100 診断支援装置
101 第1表示部
102 第2表示部
103 スピーカ
110 ステレオカメラ
111 右カメラ
112 左カメラ
121,122 赤外LED光源
123,125 波長1−LED
124,126 波長2−LED
130 駆動・IF部
131,132 カメラIF
133 LED駆動制御部
134 スピーカ駆動部
140 制御部
141 表示制御部
142 調整部
143 瞳孔中心/角膜反射検出部
144 注視点検出部
145 診断部
150 記憶部
160 照明駆動部
DESCRIPTION OF
124,126 Wavelength 2-LED
130 Drive / IF 131,132 Camera IF
133 LED
Claims (6)
前記被験者に対して赤外光が照射されているタイミングにおいて前記被験者の目の画像を撮像する撮像部と、
前記被験者の目の画像における瞳孔像の輝度に応じて、前記被験者の目に対して照射する可視光の光量を調整する調整部と、
前記可視光の光量の調整後において撮像された、前記被験者の目の画像における瞳孔像および前記赤外光が角膜表面で反射した角膜反射像に基づき前記被験者の視線を検出する視線検出部と、
を備え、
前記調整部は、輝度の異なる映像コンテンツを前記瞳孔像の輝度に応じて切り替えて表示部に表示する、前記表示部の端部に設けられた照明の輝度を前記瞳孔像の輝度に応じて変更する、または前記瞳孔像の輝度に応じて、前記表示部の端部領域に表示される画像の輝度を切り替える視線検出装置。 An irradiation unit for irradiating the subject with infrared light;
An imaging unit that captures an image of the eye of the subject at a timing when infrared light is irradiated to the subject;
An adjustment unit that adjusts the amount of visible light applied to the eye of the subject according to the luminance of the pupil image in the eye image of the subject;
The captured after adjusting the amount of the visible light, the sight put that pupil hole image and the subject's eye images the infrared light to detect the line of sight of the subject based on the image of corneal reflection reflected by the corneal surface detection And
With
The adjusting unit switches the video content having different luminances according to the luminance of the pupil image and displays it on the display unit. The luminance of the illumination provided at the end of the display unit is changed according to the luminance of the pupil image. Or a line-of-sight detection device that switches the luminance of an image displayed in the end region of the display unit in accordance with the luminance of the pupil image .
前記被験者に対して赤外光が照射されているタイミングにおいて前記被験者の目の画像を撮像する撮像ステップと、
前記被験者の目の画像における瞳孔像の輝度に応じて、前記被験者の目に対して照射する可視光の光量を調整する調整ステップと、
前記可視光の光量の調整後において撮像された、前記被験者の目の画像における瞳孔像および前記赤外光が角膜表面で反射した角膜反射像に基づき前記被験者の視線を検出する視線検出ステップと、
を含み、
前記調整ステップは、輝度の異なる映像コンテンツを前記瞳孔像の輝度に応じて切り替えて表示部に表示する、前記表示部の端部に設けられた照明の輝度を前記瞳孔像の輝度に応じて変更する、または前記瞳孔像の輝度に応じて、前記表示部の端部領域に表示される画像の輝度を切り替える視線検出方法。 An irradiation step of irradiating the subject with infrared light;
An imaging step of capturing an image of the eye of the subject at a timing when infrared light is irradiated to the subject;
An adjustment step of adjusting the amount of visible light applied to the eye of the subject according to the luminance of the pupil image in the image of the subject's eye;
The captured after adjusting the amount of the visible light, the sight put that pupil hole image and the subject's eye images the infrared light to detect the line of sight of the subject based on the image of corneal reflection reflected by the corneal surface detection Steps,
Only including,
In the adjustment step, video contents having different luminances are switched according to the luminance of the pupil image and displayed on the display unit. The luminance of the illumination provided at the end of the display unit is changed according to the luminance of the pupil image. Or a line-of-sight detection method for switching the luminance of an image displayed in the end region of the display unit in accordance with the luminance of the pupil image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012247869A JP5998863B2 (en) | 2012-11-09 | 2012-11-09 | Gaze detection device and gaze detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012247869A JP5998863B2 (en) | 2012-11-09 | 2012-11-09 | Gaze detection device and gaze detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014094186A JP2014094186A (en) | 2014-05-22 |
JP5998863B2 true JP5998863B2 (en) | 2016-09-28 |
Family
ID=50937813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012247869A Active JP5998863B2 (en) | 2012-11-09 | 2012-11-09 | Gaze detection device and gaze detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5998863B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6370168B2 (en) * | 2014-08-29 | 2018-08-08 | アルプス電気株式会社 | Illumination imaging apparatus and line-of-sight detection apparatus including the same |
JP6381654B2 (en) * | 2014-08-29 | 2018-08-29 | アルプス電気株式会社 | Gaze detection device |
KR102024877B1 (en) * | 2014-12-19 | 2019-09-24 | 한국전자통신연구원 | Apparatus and method for eye detecting based on corneal specular reflections and pupil |
JP6638354B2 (en) * | 2015-12-01 | 2020-01-29 | 株式会社Jvcケンウッド | Eye gaze detection device and eye gaze detection method |
JP6900994B2 (en) * | 2015-12-01 | 2021-07-14 | 株式会社Jvcケンウッド | Line-of-sight detection device and line-of-sight detection method |
JP6687195B2 (en) * | 2016-08-15 | 2020-04-22 | 国立大学法人静岡大学 | Eye image processing device |
US10591731B2 (en) | 2016-12-06 | 2020-03-17 | Google Llc | Ocular video stabilization |
JPWO2023053556A1 (en) * | 2021-09-30 | 2023-04-06 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2995877B2 (en) * | 1991-01-08 | 1999-12-27 | キヤノン株式会社 | Eye gaze detection device |
JPH05333405A (en) * | 1992-05-28 | 1993-12-17 | Asahi Optical Co Ltd | Finder device |
JP5465210B2 (en) * | 2004-09-29 | 2014-04-09 | キヤノン株式会社 | Fundus photographing device |
JP2007058507A (en) * | 2005-08-24 | 2007-03-08 | Konica Minolta Holdings Inc | Line of sight detecting device |
JP5145555B2 (en) * | 2007-03-30 | 2013-02-20 | 国立大学法人静岡大学 | Pupil detection method |
-
2012
- 2012-11-09 JP JP2012247869A patent/JP5998863B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014094186A (en) | 2014-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5998863B2 (en) | Gaze detection device and gaze detection method | |
US10722113B2 (en) | Gaze detection apparatus and gaze detection method | |
US20210325649A1 (en) | System and method to automatically adjust illumination during a microsurgical procedure | |
JP5371638B2 (en) | Ophthalmic imaging apparatus and method | |
WO2018177311A1 (en) | Line-of-sight tracking device and head-mounted display device | |
JP6201956B2 (en) | Gaze detection device and gaze detection method | |
WO2015146491A1 (en) | Detection device and detection method | |
JP6638354B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP2015126857A (en) | Line of sight detection support device and line of sight detection support method | |
JP2016028669A (en) | Pupil detection device and pupil detection method | |
JP6593133B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6380178B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6135550B2 (en) | Diagnosis support apparatus and diagnosis support method | |
CN102202559A (en) | Multifunction ophthalmic examination apparatus | |
JP2015144635A (en) | detection device and detection method | |
JP2016087291A (en) | Pupil and visual line measurement device and illumination system | |
JP2021192164A (en) | Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program | |
JP6019684B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6327171B2 (en) | Gaze point detection device and gaze point detection method | |
JP5838894B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6693149B2 (en) | Pupil detection device and pupil detection method | |
JP2016000137A (en) | Flicker value measuring device and lighting apparatus | |
JP6471533B2 (en) | Gaze detection device and gaze detection method | |
JP6909391B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP6187347B2 (en) | Detection apparatus and detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5998863 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |