JP7722016B2 - Gaze detection device, gaze detection method, and gaze detection program - Google Patents

Gaze detection device, gaze detection method, and gaze detection program

Info

Publication number
JP7722016B2
JP7722016B2 JP2021124572A JP2021124572A JP7722016B2 JP 7722016 B2 JP7722016 B2 JP 7722016B2 JP 2021124572 A JP2021124572 A JP 2021124572A JP 2021124572 A JP2021124572 A JP 2021124572A JP 7722016 B2 JP7722016 B2 JP 7722016B2
Authority
JP
Japan
Prior art keywords
light source
center
light
detection
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021124572A
Other languages
Japanese (ja)
Other versions
JP2023019659A (en
Inventor
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021124572A priority Critical patent/JP7722016B2/en
Priority to PCT/JP2022/025367 priority patent/WO2023008023A1/en
Publication of JP2023019659A publication Critical patent/JP2023019659A/en
Priority to US18/403,782 priority patent/US12374160B2/en
Application granted granted Critical
Publication of JP7722016B2 publication Critical patent/JP7722016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、視線検出装置、視線検出方法及び視線検出プログラムに関する。 The present invention relates to a gaze detection device, a gaze detection method, and a gaze detection program.

光源で検出光を発光して被験者の眼球に照射し、検出光が照射された眼球の画像を取得し、取得した画像における瞳孔の像と検出光の反射像とに基づいて、瞳孔中心及び角膜曲率中心を算出し、角膜曲率中心から瞳孔中心へ向かうベクトルを被験者の視線方向として検出する視線検出装置が知られている(例えば、特許文献1参照)。 A gaze detection device is known that emits detection light from a light source and irradiates it onto the subject's eyeball, acquires an image of the eyeball illuminated by the detection light, calculates the pupil center and corneal curvature center based on the image of the pupil in the acquired image and the reflected image of the detection light, and detects the vector from the corneal curvature center to the pupil center as the subject's gaze direction (see, for example, Patent Document 1).

特許第4649319号公報Patent No. 4649319

上記のような視線検出装置では、被験者の眼球に照射される検出光の反射像が角膜と強膜との境界又は強膜に存在することがある。角膜と強膜とでは曲率半径が異なるため、このような場合には、視線の検出精度が低下する可能性がある。 In gaze detection devices like those described above, the reflected image of the detection light irradiated onto the subject's eyeball may exist on the boundary between the cornea and sclera or on the sclera. Because the cornea and sclera have different radii of curvature, in such cases gaze detection accuracy may be reduced.

本発明は、上記に鑑みてなされたものであり、検出精度の低下を抑制することが可能な視線検出装置、視線検出方法及び視線検出プログラムを提供することを目的とする。 The present invention has been made in consideration of the above, and aims to provide a gaze detection device, gaze detection method, and gaze detection program that can suppress a decline in detection accuracy.

本発明に係る視線検出装置は、画像を表示する表示部と、検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、前記検出光が照射された眼球の画像を撮像する撮像部と、撮像された前記画像から、前記検出光が照射された眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部と、前記瞳孔中心の位置と前記角膜反射中心の位置とに基づいて被験者の注視点の位置を算出する注視点検出部と、前記瞳孔中心と前記角膜反射中心との間の対象距離に基づいて、複数の前記光源のうち前記検出光を発光する前記光源を切り替える光源制御部とを備える。 The gaze detection device of the present invention comprises a display unit that displays an image, a plurality of light sources that emit detection light and irradiate it onto at least one eyeball of the subject, an imaging unit that captures an image of the eyeball irradiated with the detection light, a position detection unit that detects from the captured image the position of the pupil center indicating the center of the pupil of the eyeball irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex, a gaze point detection unit that calculates the position of the subject's gaze point based on the positions of the pupil center and the corneal reflex center, and a light source control unit that switches the light source that emits the detection light from among the plurality of light sources based on the target distance between the pupil center and the corneal reflex center.

本発明に係る視線検出方法は、表示部に画像を表示することと、複数の光源から検出光を発光して被験者の少なくとも一方の眼球に照射することと、前記検出光が照射された眼球の画像を撮像することと、撮像された前記画像から、前記検出光が照射された眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出することと、前記瞳孔中心の位置と前記角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出することと、前記瞳孔中心と前記角膜反射中心との間の対象距離に基づいて、複数の前記光源のうち前記検出光を発光する前記光源を切り替えることとを含む。 The gaze detection method according to the present invention includes displaying an image on a display unit, emitting detection light from a plurality of light sources and irradiating it onto at least one eyeball of a subject, capturing an image of the eyeball irradiated with the detection light, detecting from the captured image the position of the pupil center indicating the center of the pupil of the eyeball irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex, calculating the position of the subject's point of gaze based on the position of the pupil center and the position of the center of corneal curvature, and switching the light source that emits the detection light from among the plurality of light sources based on the target distance between the pupil center and the corneal reflex center.

本発明に係る視線検出プログラムは、表示部に画像を表示する処理と、複数の光源から検出光を発光して被験者の少なくとも一方の眼球に照射する処理と、前記検出光が照射された眼球の画像を撮像する処理と、撮像された前記画像から、前記検出光が照射された眼球の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する処理と、前記瞳孔中心の位置と前記角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出する処理と、前記瞳孔中心と前記角膜反射中心との間の対象距離に基づいて、複数の前記光源のうち前記検出光を発光する前記光源を切り替える処理とをコンピュータに実行させる。 The gaze detection program of the present invention causes a computer to execute the following processes: displaying an image on a display unit; emitting detection light from multiple light sources and irradiating it onto at least one eyeball of a subject; capturing an image of the eyeball irradiated with the detection light; detecting, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex; calculating the position of the subject's point of gaze based on the positions of the pupil center and the center of corneal curvature; and switching the light source that emits the detection light from among the multiple light sources based on the target distance between the pupil center and the corneal reflex center.

本発明によれば、検出精度の低下を抑制することが可能な視線検出装置、視線検出方法及び視線検出プログラムを提供することができる。 The present invention provides a gaze detection device, gaze detection method, and gaze detection program that can suppress a decrease in detection accuracy.

図1は、本実施形態に係る視線検出装置の一例を模式的に示す斜視図である。FIG. 1 is a perspective view schematically illustrating an example of a gaze detection device according to this embodiment. 図2は、本実施形態に係る視線検出装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the hardware configuration of the gaze detection device according to this embodiment. 図3は、本実施形態に係る視線検出装置の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the gaze detection device according to this embodiment. 図4は、第1光源及び第2光源で眼球が照明される例を示す図である。FIG. 4 is a diagram showing an example in which the eyeball is illuminated by the first light source and the second light source. 図5は、本実施形態に係るキャリブレーション処理の原理を説明するための模式図である。FIG. 5 is a schematic diagram for explaining the principle of the calibration process according to this embodiment. 図6は、本実施形態に係る視線検出処理の原理を説明するための模式図である。FIG. 6 is a schematic diagram for explaining the principle of the gaze detection process according to this embodiment. 図7は、検出光の反射像が形成された眼球の一例を示す図である。FIG. 7 is a diagram showing an example of an eyeball on which a reflected image of detection light is formed. 図8は、検出光の反射像が形成された眼球の一例を示す図である。FIG. 8 is a diagram showing an example of an eyeball on which a reflected image of detection light is formed. 図9は、視線検出処理における照明装置の動作の一例を示す図である。FIG. 9 is a diagram illustrating an example of the operation of the lighting device in the gaze detection process. 図10は、視線検出処理における照明装置の動作の一例を示す図である。FIG. 10 is a diagram illustrating an example of the operation of the lighting device in the gaze detection process. 図11は、視線検出処理における照明装置の動作の一例を示す図である。FIG. 11 is a diagram illustrating an example of the operation of the lighting device in the gaze detection process. 図12は、視線検出処理における照明装置の動作の一例を示す図である。FIG. 12 is a diagram illustrating an example of the operation of the lighting device in the gaze detection process. 図13は、視線検出処理における照明装置の動作の一例を示す図である。FIG. 13 is a diagram illustrating an example of the operation of the lighting device in the gaze detection process. 図14は、本実施形態に係る視線検出方法における視線検出処理の一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of the gaze detection process in the gaze detection method according to this embodiment. 図15は、検出光の反射像が形成された眼球の他の例を示す図である。FIG. 15 is a diagram showing another example of an eyeball on which a reflected image of detection light is formed. 図16は、視線検出処理における照明装置の動作の他の例を示す図である。FIG. 16 is a diagram showing another example of the operation of the lighting device in the gaze detection process. 図17は、視線検出処理における照明装置の動作の他の例を示す図である。FIG. 17 is a diagram showing another example of the operation of the lighting device in the gaze detection process. 図18は、視線検出処理における照明装置の動作の他の例を示す図である。FIG. 18 is a diagram showing another example of the operation of the lighting device in the gaze detection process. 図19は、本実施形態に係る視線検出方法における視線検出処理の他の例を示すフローチャートである。FIG. 19 is a flowchart showing another example of the gaze detection process in the gaze detection method according to this embodiment. 図20は、本実施形態に係る視線検出方法における視線検出処理の他の例を示すフローチャートである。FIG. 20 is a flowchart showing another example of the gaze detection process in the gaze detection method according to this embodiment.

以下、本発明に係る視線検出装置、視線検出方法及び視線検出プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Embodiments of the gaze detection device, gaze detection method, and gaze detection program according to the present invention will be described below with reference to the accompanying drawings. Note that the present invention is not limited to these embodiments. Furthermore, the components in the following embodiments include those that are easily replaceable by those skilled in the art, or those that are substantially identical.

以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。 In the following explanation, a three-dimensional global coordinate system is set up to explain the positional relationships of each part. The direction parallel to the first axis of the specified plane is the X-axis direction, the direction parallel to the second axis of the specified plane that is perpendicular to the first axis is the Y-axis direction, and the direction parallel to the third axis that is perpendicular to both the first and second axes is the Z-axis direction. The specified plane includes the XY plane.

(視線検出装置)
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す斜視図である。図1に示すように、視線検出装置100は、表示部101と、ステレオカメラ装置102と、照明装置103とを備える。
(Gaze detection device)
1 is a perspective view schematically illustrating an example of a gaze detection device 100 according to this embodiment. As shown in FIG. 1, the gaze detection device 100 includes a display unit 101, a stereo camera device 102, and an illumination device 103.

表示部101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OELD)のようなフラットパネルディスプレイを含む。本実施形態において、表示部101は、画像を表示する。本実施形態において、表示部101は、例えば被験者の視機能を評価するための指標を表示する。表示部101は、XY平面と実質的に平行である。X軸方向は表示部101の左右方向であり、Y軸方向は表示部101の上下方向であり、Z軸方向は表示部101と直交する奥行方向である。 The display unit 101 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OELD). In this embodiment, the display unit 101 displays an image. In this embodiment, the display unit 101 displays, for example, an index for evaluating the visual function of a subject. The display unit 101 is substantially parallel to the XY plane. The X-axis direction is the left-right direction of the display unit 101, the Y-axis direction is the up-down direction of the display unit 101, and the Z-axis direction is the depth direction perpendicular to the display unit 101.

ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示部101よりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも-X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。 The stereo camera device 102 has a first camera 102A and a second camera 102B. The stereo camera device 102 is positioned below the display unit 101. The first camera 102A and the second camera 102B are positioned in the X-axis direction. The first camera 102A is positioned in the -X direction relative to the second camera 102B. The first camera 102A and the second camera 102B each include an infrared camera and have an optical system that can transmit near-infrared light with a wavelength of, for example, 850 nm, and an imaging element that can receive that near-infrared light.

照明装置(光源)103は、第1光源(下部第1光源)103Aと、第2光源(下部第2光源)103Bと、第3光源(上部光源)103Cと、第4光源(上部光源)103Dとを有する。第1光源103A及び第2光源103Bは、表示部101よりも下方に配置される。第3光源103C及び第4光源103D(上部光源)は、表示部101よりも上方に配置される。 The lighting device (light source) 103 has a first light source (lower first light source) 103A, a second light source (lower second light source) 103B, a third light source (upper light source) 103C, and a fourth light source (upper light source) 103D. The first light source 103A and the second light source 103B are arranged below the display unit 101. The third light source 103C and the fourth light source 103D (upper light source) are arranged above the display unit 101.

第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも-X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第3光源103Cと第4光源103Dとは、X軸方向に配置される。第3光源103Cは、第1カメラ102Aよりも-X方向に配置される。第4光源103Dは、第2カメラ102Bよりも+X方向に配置される。 The first light source 103A and the second light source 103B are arranged in the X-axis direction. The first light source 103A is arranged in the -X direction from the first camera 102A. The second light source 103B is arranged in the +X direction from the second camera 102B. The third light source 103C and the fourth light source 103D are arranged in the X-axis direction. The third light source 103C is arranged in the -X direction from the first camera 102A. The fourth light source 103D is arranged in the +X direction from the second camera 102B.

第1光源103A、第2光源103B、第3光源103C及び第4光源103Dはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。同様に、第3光源103C及び第4光源103Dは、X方向について第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。また、ステレオカメラ装置102は、表示部101よりも上方に配置されてもよい。 The first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D each include an LED (light emitting diode) light source and are capable of emitting near-infrared light with a wavelength of, for example, 850 nm. The first light source 103A and the second light source 103B may be disposed between the first camera 102A and the second camera 102B. Similarly, the third light source 103C and the fourth light source 103D may be disposed between the first camera 102A and the second camera 102B in the X direction. The stereo camera device 102 may also be disposed above the display unit 101.

照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103A又は第3光源103Cが発光することで射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111の一部(以下、これを含めて「眼球」とする)を撮影し、第2光源103B又は第4光源103Dが発光することで射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。 The lighting device 103 emits near-infrared light, which is detection light, to illuminate the subject's eyeball 111. The stereo camera device 102 captures an image of a part of the eyeball 111 (hereinafter collectively referred to as the "eyeball") with the second camera 102B when the eyeball 111 is irradiated with detection light emitted by the first light source 103A or the third light source 103C, and captures an image of the eyeball 111 with the first camera 102A when the eyeball 111 is irradiated with detection light emitted by the second light source 103B or the fourth light source 103D.

第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A、第2光源103B、第3光源103C及び第4光源103Dは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103B又は第4光源103Dから射出された検出光が眼球111に照射されたときに、眼球111の画像データを撮影する。第2カメラ102Bは、第1光源103A又は第3光源103Cから射出された検出光が眼球111に照射されたときに、眼球111の画像データを撮影する。 A frame synchronization signal is output from at least one of the first camera 102A and the second camera 102B. The first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D emit detection light based on the frame synchronization signal. The first camera 102A captures image data of the eyeball 111 when the detection light emitted from the second light source 103B or the fourth light source 103D is irradiated onto the eyeball 111. The second camera 102B captures image data of the eyeball 111 when the detection light emitted from the first light source 103A or the third light source 103C is irradiated onto the eyeball 111.

眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。 When detection light is irradiated onto the eyeball 111, part of the detection light is reflected by the pupil 112, and light from the pupil 112 enters the stereo camera device 102. Furthermore, when detection light is irradiated onto the eyeball 111, a corneal reflection image 113, which is a virtual image of the cornea, is formed on the eyeball 111, and light from the corneal reflection image 113 enters the stereo camera device 102.

第1カメラ102A及び第2カメラ102Bと、第1光源103A、第2光源103B、第3光源103C及び第4光源103Dとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で撮影される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。視線検出装置100は、撮影される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。 By appropriately setting the relative positions of the first camera 102A and the second camera 102B and the first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D, the intensity of light incident on the stereo camera device 102 from the pupil 112 is reduced, and the intensity of light incident on the stereo camera device 102 from the corneal reflection image 113 is increased. In other words, the image of the pupil 112 captured by the stereo camera device 102 has low brightness, and the image of the corneal reflection image 113 has high brightness. The gaze detection device 100 can detect the position of the pupil 112 and the position of the corneal reflection image 113 based on the brightness of the captured image.

図2は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図2に示すように、視線検出装置100は、表示部101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム(制御部)20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60とを備える。 Figure 2 is a diagram showing an example of the hardware configuration of the gaze detection device 100 according to this embodiment. As shown in Figure 2, the gaze detection device 100 includes a display unit 101, a stereo camera device 102, an illumination device 103, a computer system (control unit) 20, an input/output interface device 30, a drive circuit 40, an output device 50, and an input device 60.

コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60とは、入出力インターフェース装置30を介してデータ通信する。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。 The computer system 20, drive circuit 40, output device 50, and input device 60 communicate data via an input/output interface device 30. The computer system 20 includes an arithmetic processing unit 20A and a memory device 20B. The arithmetic processing unit 20A includes a microprocessor such as a CPU (central processing unit). The memory device 20B includes memory or storage such as ROM (read only memory) and RAM (random access memory). The arithmetic processing unit 20A performs arithmetic processing in accordance with a computer program 20C stored in the memory device 20B.

駆動回路40は、駆動信号を生成して、表示部101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で撮影された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。 The drive circuit 40 generates drive signals and outputs them to the display unit 101, the stereo camera device 102, and the lighting device 103. The drive circuit 40 also supplies image data of the eyeball 111 captured by the stereo camera device 102 to the computer system 20 via the input/output interface device 30.

出力装置50は、フラットパネルディスプレイのような表示部を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示部である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。 The output device 50 includes a display unit such as a flat panel display. The output device 50 may also include a printing device. The input device 60 generates input data when operated. The input device 60 includes a keyboard or mouse for a computer system. The input device 60 may also include a touch sensor provided on the display screen of the output device 50, which is the display unit.

本実施形態においては、表示部101とコンピュータシステム20とは別々の装置である。なお、表示部101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示部101が搭載されてもよい。 In this embodiment, the display unit 101 and the computer system 20 are separate devices. However, the display unit 101 and the computer system 20 may be integrated. For example, if the gaze detection device 100 includes a tablet-type personal computer, the computer system 20, input/output interface device 30, drive circuit 40, and display unit 101 may be mounted on the tablet-type personal computer.

図3は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図3に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示部101を駆動するための駆動信号を生成して表示部101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A、第2光源103B、第3光源103C及び第4光源103Dを駆動するための駆動信号を生成して第1光源103A、第2光源103B、第3光源103C及び第4光源103Dに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで撮影された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで撮影された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。 Figure 3 is a functional block diagram showing an example of the gaze detection device 100 according to this embodiment. As shown in Figure 3, the input/output interface device 30 has an input/output unit 302. The drive circuit 40 has a display device drive unit 402 that generates a drive signal for driving the display unit 101 and outputs it to the display unit 101, a first camera input/output unit 404A that generates a drive signal for driving the first camera 102A and outputs it to the first camera 102A, a second camera input/output unit 404B that generates a drive signal for driving the second camera 102B and outputs it to the second camera 102B, and a light source drive unit 406 that generates drive signals for driving the first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D and outputs them to the first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D. In addition, the first camera input/output unit 404A supplies image data of the eyeball 111 captured by the first camera 102A to the computer system 20 via the input/output unit 302. The second camera input/output unit 404B supplies image data of the eyeball 111 captured by the second camera 102B to the computer system 20 via the input/output unit 302.

コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、表示制御部21と、光源制御部22と、画像データ取得部23と、位置検出部24と、曲率中心算出部25と、注視点検出部26と、記憶部27と、入出力制御部28とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。 The computer system 20 controls the gaze detection device 100. The computer system 20 has a display control unit 21, a light source control unit 22, an image data acquisition unit 23, a position detection unit 24, a center of curvature calculation unit 25, a gaze point detection unit 26, a memory unit 27, and an input/output control unit 28. The functions of the computer system 20 are performed by an arithmetic processing unit 20A and a memory device 20B.

表示制御部21は、被験者に見せるための画像を表示部101に表示させる。表示制御部21は、例えばキャリブレーション処理における目標画像を表示部101の複数の位置(目標位置)に表示可能である。表示制御部21は、目標画像を1箇所ずつ複数の目標位置に順次切り替えて表示してもよいし、目標画像が表示部101内で複数の目標位置に順次移動するように表示させてもよい。なお、目標画像を表示させる目標位置の数については、例えば操作者が入力装置60等により入力することによって設定可能である。 The display control unit 21 displays an image to be shown to the subject on the display unit 101. The display control unit 21 can, for example, display target images in the calibration process at multiple positions (target positions) on the display unit 101. The display control unit 21 may sequentially switch the target images one by one to multiple target positions, or may display the target images so that they move sequentially to multiple target positions within the display unit 101. The number of target positions at which the target images are displayed can be set, for example, by the operator inputting the number using the input device 60, etc.

光源制御部22は、光源駆動部406を制御して、第1光源103A、第2光源103B、第3光源103C及び第4光源103Dの発光と非発光とを制御する。光源制御部22は、瞳孔中心と角膜反射中心との間の対象距離に基づいて、第1光源103A、第2光源103B、第3光源103C及び第4光源103Dのうち検出光を発光する光源を切り替える。対象距離としては、例えば瞳孔中心と角膜反射中心との間の上下方向の距離、瞳孔中心と角膜反射中心との間の左右方向の距離、瞳孔中心と角膜反射中心との間の最短距離、等が挙げられる。光源制御部22は、第1光源103A及び第2光源103Bから検出光が発光している状態において、瞳孔中心と角膜反射中心との間の対象距離が所定の閾値以上となる場合には、第3光源103C及び第4光源103Dから検出光を発光させるように切り替えることができる。また、光源制御部22は、第3光源103C及び第4光源103Dから検出光が発光している状態において、瞳孔中心と角膜反射中心との間の対象距離が所定の閾値以上となる場合には、第1光源103A及び第2光源103Bから検出光を発光させるように切り替えることができる。 The light source control unit 22 controls the light source drive unit 406 to control the emission and non-emission of light from the first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D. The light source control unit 22 switches between the first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D to emit detection light based on the target distance between the pupil center and the corneal reflex center. Examples of the target distance include the vertical distance between the pupil center and the corneal reflex center, the horizontal distance between the pupil center and the corneal reflex center, and the shortest distance between the pupil center and the corneal reflex center. When the target distance between the pupil center and the corneal reflex center is equal to or greater than a predetermined threshold while the detection light is being emitted from the first light source 103A and the second light source 103B, the light source control unit 22 can switch to emitting detection light from the third light source 103C and the fourth light source 103D. Furthermore, when the target distance between the pupil center and the corneal reflex center is equal to or greater than a predetermined threshold while detection light is being emitted from the third light source 103C and the fourth light source 103D, the light source control unit 22 can switch to emitting detection light from the first light source 103A and the second light source 103B.

また、光源制御部22は、眼球111の画像における検出光の反射像の形状が基準形状に含まれるか否かに基づいて、第1光源103A、第2光源103B、第3光源103C及び第4光源103Dのうち検出光を発光する光源を切り替える。本実施形態において、基準形状は、1つの楕円形状とすることができる。光源制御部22は、第1光源103A及び第2光源103Bから検出光が発光している状態において、眼球111の画像における検出光の反射像の形状が基準形状に含まれないと判定した場合には、第3光源103C及び第4光源103Dから検出光を発光させるように切り替えることができる。また、光源制御部22は、第3光源103C及び第4光源103Dから検出光が発光している状態において、眼球111の画像における検出光の反射像の形状が基準形状に含まれないと判定した場合には、第1光源103A及び第2光源103Bから検出光を発光させるように切り替えることができる。 The light source control unit 22 switches between the first light source 103A, the second light source 103B, the third light source 103C, and the fourth light source 103D that emits the detection light, based on whether the shape of the reflected image of the detection light in the image of the eyeball 111 is included in the reference shape. In this embodiment, the reference shape may be a single ellipse. When the light source control unit 22 determines that the shape of the reflected image of the detection light in the image of the eyeball 111 is not included in the reference shape while the detection light is being emitted from the first light source 103A and the second light source 103B, it can switch to emitting the detection light from the third light source 103C and the fourth light source 103D. When the light source control unit 22 determines that the shape of the reflected image of the detection light in the image of the eyeball 111 is not included in the reference shape while the detection light is being emitted from the third light source 103C and the fourth light source 103D, it can switch to emitting the detection light from the first light source 103A and the second light source 103B.

画像データ取得部23は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって撮影された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。 The image data acquisition unit 23 acquires image data of the subject's eyeball 111 captured by the stereo camera device 102, which includes the first camera 102A and the second camera 102B, from the stereo camera device 102 via the input/output unit 302.

位置検出部24は、画像データ取得部23で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部24は、画像データ取得部23で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部24は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。 The position detection unit 24 detects position data of the pupil center based on the image data of the eyeball 111 acquired by the image data acquisition unit 23. The position detection unit 24 also detects position data of the corneal reflex center based on the image data of the eyeball 111 acquired by the image data acquisition unit 23. The pupil center is the center of the pupil 112. The corneal reflex center is the center of the corneal reflex image 113. The position detection unit 24 detects position data of the pupil center and position data of the corneal reflex center for each of the subject's left and right eyeballs 111.

曲率中心算出部25は、画像データ取得部23で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。 The curvature center calculation unit 25 calculates position data of the corneal curvature center of the eyeball 111 based on the image data of the eyeball 111 acquired by the image data acquisition unit 23.

注視点検出部26は、画像データ取得部23で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示部101との交点の位置データをいう。注視点検出部26は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部26は、視線ベクトルと表示部101との交点を示す注視点の位置データを検出する。 The gaze point detection unit 26 detects position data of the subject's gaze point based on image data of the eyeballs 111 acquired by the image data acquisition unit 23. In this embodiment, the gaze point position data refers to position data of the intersection between the subject's gaze vector, defined in a three-dimensional global coordinate system, and the display unit 101. The gaze point detection unit 26 detects the gaze vectors of each of the subject's left and right eyeballs 111 based on position data of the pupil center and position data of the corneal curvature center acquired from the image data of the eyeballs 111. After the gaze vectors are detected, the gaze point detection unit 26 detects position data of the gaze points indicating the intersection between the gaze vector and the display unit 101.

記憶部27は、上記の視線検出に関する各種データやプログラムを記憶する。記憶部27は、例えば表示部101に表示させる画像についてのデータを、背景画像の色及び輝度ごとに記憶することができる。また、記憶部27は、各キャリブレーション処理において算出される注視点の位置データを記憶する。 The storage unit 27 stores various data and programs related to the above-mentioned gaze detection. For example, the storage unit 27 can store data about images to be displayed on the display unit 101 for each color and brightness of the background image. The storage unit 27 also stores position data of the gaze point calculated in each calibration process.

また、記憶部27は、表示部101に画像を表示する処理と、複数の光源から検出光を発光して被験者の少なくとも一方の眼球111に照射する処理と、検出光が照射された眼球111の画像を撮像する処理と、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する処理と、瞳孔中心の位置と角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出する処理と、瞳孔中心と角膜反射中心との間の対象距離に基づいて複数の光源のうち検出光を発光する光源を切り替える処理とをコンピュータに実行させる視線検出プログラムを記憶する。 The memory unit 27 also stores a gaze detection program that causes the computer to execute the following processes: displaying an image on the display unit 101; emitting detection light from multiple light sources and irradiating it onto at least one eyeball 111 of the subject; capturing an image of the eyeball 111 irradiated with the detection light; detecting, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball 111 irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex; calculating the position of the subject's gaze point based on the position of the pupil center and the position of the center of corneal curvature; and switching between the light sources that emit detection light from among the multiple light sources based on the target distance between the pupil center and the corneal reflex center.

また、記憶部27は、表示部101に画像を表示する処理と、複数の光源から検出光を発光して被験者の少なくとも一方の眼球111に照射する処理と、検出光が照射された眼球111の画像を撮像する処理と、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する処理と、瞳孔中心の位置と角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出する処理と、眼球111の画像における検出光の角膜反射像113の形状が基準形状に含まれるか否かに基づいて、複数の光源のうち検出光を発光する光源を切り替える処理とをコンピュータに実行させる視線検出プログラムを記憶する。 The memory unit 27 also stores a gaze detection program that causes the computer to execute the following processes: displaying an image on the display unit 101; emitting detection light from multiple light sources and irradiating it onto at least one eyeball 111 of the subject; capturing an image of the eyeball 111 irradiated with the detection light; detecting, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball 111 irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex; calculating the position of the subject's gaze point based on the position of the pupil center and the position of the center of corneal curvature; and switching the light source that emits the detection light from among the multiple light sources based on whether the shape of the corneal reflex image 113 of the detection light in the image of the eyeball 111 is included in a reference shape.

入出力制御部28は、表示部101及び出力装置50の少なくとも一方にデータを出力する。 The input/output control unit 28 outputs data to at least one of the display unit 101 and the output device 50.

次に、本実施形態に係る曲率中心算出部25の処理の概要について説明する。本実施形態では、第1光源103A及び第2光源103Bで眼球111が照明され、第1カメラ102A及び第2カメラ102Bの2つのカメラで眼球111を撮影する場合について説明する。なお、光源及びカメラが2つの場合に限定されず、光源及びカメラが1つである場合にも同様の説明が可能である。以下、本実施形態に係る視線検出方法の原理を説明する。 Next, an overview of the processing of the center of curvature calculation unit 25 according to this embodiment will be described. In this embodiment, a case will be described in which the eyeball 111 is illuminated by the first light source 103A and the second light source 103B, and the eyeball 111 is photographed by two cameras, the first camera 102A and the second camera 102B. Note that this is not limited to the case where there are two light sources and two cameras, and a similar explanation can be given for the case where there is only one light source and one camera. Below, the principle of the gaze detection method according to this embodiment will be described.

図4は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す図である。図4に示すように、本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源(光源の基準位置)103Vが存在するとみなすことができる。 Figure 4 is a diagram showing an example in which the eyeball 111 is illuminated by the first light source 103A and the second light source 103B. As shown in Figure 4, in this embodiment, the first camera 102A and the second light source 103B, and the second camera 102B and the first light source 103A are positioned symmetrically with respect to a line passing through the midpoint between the first camera 102A and the second camera 102B. A virtual light source (reference position of the light source) 103V can be considered to exist at the midpoint between the first camera 102A and the second camera 102B.

角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。 The corneal reflection center 121 indicates the corneal reflection center in the image of the eyeball 111 captured by the second camera 102B. The corneal reflection center 122 indicates the corneal reflection center in the image of the eyeball 111 captured by the first camera 102A. The corneal reflection center 124 indicates the corneal reflection center corresponding to the virtual light source 103V.

角膜反射中心124の位置データは、ステレオカメラ装置102で撮影された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部27に記憶されている。曲率中心算出部25は、ステレオカメラ装置102で撮影された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部25は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。 The position data of the corneal reflection center 124 is calculated based on the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 photographed by the stereo camera device 102. The stereo camera device 102 detects the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 in a three-dimensional local coordinate system defined for the stereo camera device 102. Camera calibration is performed in advance for the stereo camera device 102 using a stereo calibration method, and transformation parameters for converting the three-dimensional local coordinate system of the stereo camera device 102 into a three-dimensional global coordinate system are calculated. The transformation parameters are stored in the memory unit 27. The curvature center calculation unit 25 uses the transformation parameters to convert the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 photographed by the stereo camera device 102 into position data in the three-dimensional global coordinate system. The curvature center calculation unit 25 calculates the position data of the corneal reflection center 124 in the three-dimensional global coordinate system based on the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 defined in the three-dimensional global coordinate system.

角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部25は、直線123上において角膜反射中心124からの距離が所定値となる位置を、角膜曲率中心110の位置として算出する。当該所定値としては、角膜曲率半径109が用いられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。角膜曲率半径109の値としては、例えば一般的な角膜曲率半径値などから予め定められた値を用いることができる。 The corneal curvature center 110 exists on a straight line 123 connecting the virtual light source 103V and the corneal reflection center 124. The curvature center calculation unit 25 calculates the position on the straight line 123 where the distance from the corneal reflection center 124 is a predetermined value as the position of the corneal curvature center 110. The corneal curvature radius 109 is used as this predetermined value. The corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110. The value of the corneal curvature radius 109 can be a predetermined value, for example, based on a general corneal curvature radius value.

なお、第3光源103C及び第4光源103Dを用いる場合については、表示部101の上部において、第1光源103A及び第2光源103BとX座標が同一となるように第3光源103C及び第4光源103Dを配置し、第3光源103Cと第4光源103Dとの中間位置に仮想光源103V2(図示せず)が存在すると想定することにより、上記同様の方法で角膜曲率中心110が算出される。 When using the third light source 103C and the fourth light source 103D, the third light source 103C and the fourth light source 103D are arranged above the display unit 101 so that their X coordinates are the same as those of the first light source 103A and the second light source 103B, and the corneal curvature center 110 is calculated in the same manner as above by assuming that a virtual light source 103V2 (not shown) exists midway between the third light source 103C and the fourth light source 103D.

[視線検出方法]
本実施形態に係る視線検出方法では、キャリブレーション処理を行った後、注視点検出処理が行われる。まず、キャリブレーション処理の原理について説明する。図5は、本実施形態に係るキャリブレーション処理の原理を説明するための模式図である。キャリブレーション処理では、被験者に注視させるため、目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。表示制御部21は、設定された目標位置130に目標画像を表示する。
[Gaze detection method]
In the gaze detection method according to this embodiment, a calibration process is performed, followed by a gaze point detection process. First, the principle of the calibration process will be described. FIG. 5 is a schematic diagram for explaining the principle of the calibration process according to this embodiment. In the calibration process, a target position 130 is set so that the subject will gaze at it. The target position 130 is defined in a three-dimensional global coordinate system. The display control unit 21 displays a target image at the set target position 130.

第1光源103A及び第2光源103Bは、眼球111を照明する。第1カメラ102A及び第2カメラ102Bは、眼球111を撮影する。例えば、第1光源103Aから検出光を射出した場合には、第2カメラ102Bで眼球111を撮影する。また、第2光源103Bから検出光を射出した場合には、第1カメラ102Aで眼球111を撮影する。なお、第1光源103A及び第2光源103Bに代えて第3光源103C及び第4光源103Dを用いる場合については、第3光源103C及び第4光源103Dから検出光を射出して、例えば第1カメラ102A及び第2カメラ102Bで異なるタイミングで眼球111を撮影する。位置検出部24は、画像データ取得部23で取得された眼球111の画像データに基づいて、瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを検出する。位置検出部24は、検出した各位置データをグローバル座標系に変換する。 The first light source 103A and the second light source 103B illuminate the eyeball 111. The first camera 102A and the second camera 102B photograph the eyeball 111. For example, when detection light is emitted from the first light source 103A, the second camera 102B photographs the eyeball 111. When detection light is emitted from the second light source 103B, the first camera 102A photographs the eyeball 111. When the third light source 103C and the fourth light source 103D are used instead of the first light source 103A and the second light source 103B, detection light is emitted from the third light source 103C and the fourth light source 103D, and the eyeball 111 is photographed at different times by the first camera 102A and the second camera 102B, for example. The position detection unit 24 detects position data of the pupil center 112C and the corneal reflex center 113C based on the image data of the eyeball 111 acquired by the image data acquisition unit 23. The position detection unit 24 converts each detected position data into a global coordinate system.

曲率中心算出部25は、第1光源103A及び第2光源103Bから検出光を出射した場合には、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出する。具体的には、曲率中心算出部25は、仮想光源103Vと、角膜反射中心113Cとを結ぶ第1直線141を求める。また、曲率中心算出部25は、第3光源103C及び第4光源103Dから検出光を出射した場合には、仮想光源103V2の位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出する。 When detection light is emitted from the first light source 103A and the second light source 103B, the curvature center calculation unit 25 calculates the position data of the corneal center of curvature 110 based on the position data of the virtual light source 103V, the position data of the target position 130, the position data of the pupil center 112C, and the position data of the corneal reflection center 113C. Specifically, the curvature center calculation unit 25 determines a first straight line 141 connecting the virtual light source 103V and the corneal reflection center 113C. Furthermore, when detection light is emitted from the third light source 103C and the fourth light source 103D, the curvature center calculation unit 25 calculates the position data of the corneal center of curvature 110 based on the position data of the virtual light source 103V2, the position data of the target position 130, the position data of the pupil center 112C, and the position data of the corneal reflection center 113C.

また、曲率中心算出部25は、目標位置130と瞳孔中心112Cとを結ぶ第2直線142を求める。曲率中心算出部25は、第1直線141と第2直線142との交点を角膜曲率中心110の位置データとして求める。そして、曲率中心算出部25は、角膜曲率中心110と瞳孔中心112Cとの距離127を算出し、キャリブレーションデータとして記憶部27に記憶する。本実施形態では、第1光源103A及び第2光源103Bから検出光を発光する場合の角膜曲率中心110と瞳孔中心112Cとの距離(Ra)と、第3光源103C及び第4光源103Dから検出光を発光する場合の角膜曲率中心110と瞳孔中心112Cとの距離(Rb)とのそれぞれについて算出する。 The center of curvature calculation unit 25 also calculates a second line 142 connecting the target position 130 and the pupil center 112C. The center of curvature calculation unit 25 calculates the intersection of the first line 141 and the second line 142 as position data for the corneal curvature center 110. The center of curvature calculation unit 25 then calculates the distance 127 between the corneal curvature center 110 and the pupil center 112C and stores it in the memory unit 27 as calibration data. In this embodiment, the distance (Ra) between the corneal curvature center 110 and the pupil center 112C when detection light is emitted from the first light source 103A and the second light source 103B, and the distance (Rb) between the corneal curvature center 110 and the pupil center 112C when detection light is emitted from the third light source 103C and the fourth light source 103D are calculated.

次に、視線検出処理の原理について説明する。図6は、本実施形態に係る視線検出処理の原理を説明するための模式図である。視線検出処理では、キャリブレーション処理と同様に、第1光源103A及び第2光源103Bを用いて、又は第3光源103C及び第4光源103Dを用いて、眼球111を照明する。第1カメラ102A及び第2カメラ102Bは、眼球111を撮影する。位置検出部24は、画像データ取得部23で取得された眼球111の画像データに基づいて、瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを検出する。 Next, the principle of gaze detection processing will be explained. Figure 6 is a schematic diagram for explaining the principle of gaze detection processing according to this embodiment. In gaze detection processing, as in the calibration processing, the eyeball 111 is illuminated using the first light source 103A and the second light source 103B, or the third light source 103C and the fourth light source 103D. The first camera 102A and the second camera 102B capture images of the eyeball 111. The position detection unit 24 detects position data of the pupil center 112C and the corneal reflex center 113C based on the image data of the eyeball 111 acquired by the image data acquisition unit 23.

曲率中心算出部25は、第1光源103A及び第2光源103Bを用いて検出光を照射した場合には、仮想光源103Vの位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データと、キャリブレーション処理において算出した角膜曲率中心110と瞳孔中心112Cとの距離127とに基づいて、角膜曲率中心110の位置データを算出する。具体的には、曲率中心算出部25は、仮想光源103Vと、角膜反射中心113Cとを結ぶ直線173を求める。同様に、曲率中心算出部25は、第3光源103C及び第4光源103Dを用いて検出光を照射した場合には、仮想光源103V2に対応する位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データと、キャリブレーション処理において算出した角膜曲率中心110と瞳孔中心112Cとの距離127とに基づいて、角膜曲率中心110の位置データを算出する。 When detection light is irradiated using the first light source 103A and the second light source 103B, the curvature center calculation unit 25 calculates the position data of the corneal curvature center 110 based on the position data of the virtual light source 103V, the position data of the pupil center 112C, the position data of the corneal reflection center 113C, and the distance 127 between the corneal curvature center 110 and the pupil center 112C calculated in the calibration process. Specifically, the curvature center calculation unit 25 determines the straight line 173 connecting the virtual light source 103V and the corneal reflection center 113C. Similarly, when detection light is emitted using the third light source 103C and the fourth light source 103D, the curvature center calculation unit 25 calculates the position data of the corneal curvature center 110 based on the position data corresponding to the virtual light source 103V2, the position data of the pupil center 112C, the position data of the corneal reflection center 113C, and the distance 127 between the corneal curvature center 110 and the pupil center 112C calculated in the calibration process.

また、曲率中心算出部25は、瞳孔中心112Cから眼球111の内側に対して距離127に相当する距離だけ離れた位置を角膜曲率中心110の位置データとして求める。注視点検出部26は、瞳孔中心112Cと角膜曲率中心110とを結ぶ直線178を求め、当該直線178と表示部101との交点166の位置データを注視点の位置データとして算出する。 The curvature center calculation unit 25 also determines the position of the corneal curvature center 110, which is a distance away from the pupil center 112C to the inside of the eyeball 111 that corresponds to the distance 127. The gaze point detection unit 26 determines a straight line 178 connecting the pupil center 112C and the corneal curvature center 110, and calculates the position data of the intersection 166 between the straight line 178 and the display unit 101 as the gaze point position data.

図7は、検出光の反射像が形成された眼球の一例を示す図である。図7上段に示すように、被験者が仮想光源103Vからそれほど離れない位置を見た場合等、被験者の眼球111に照射される検出光の角膜反射像113が角膜111a上に存在する場合には、角膜反射像113の形状が例えば扁平率の小さい1つの楕円形状となるため、角膜反射中心の位置データを高精度に検出できる。 Figure 7 shows an example of an eyeball on which a reflection image of the detection light is formed. As shown in the upper part of Figure 7, when the subject looks at a position not far from the virtual light source 103V, for example, and the corneal reflection image 113 of the detection light irradiated onto the subject's eyeball 111 is present on the cornea 111a, the shape of the corneal reflection image 113 will be, for example, a single ellipse with a small oblateness, and the position data of the corneal reflection center can be detected with high accuracy.

図7中段及び図7下段に示すように、被験者が仮想光源103Vから大きく外れた位置を見た場合等においては、被験者の眼球111に照射される検出光の角膜反射像113が角膜111aと強膜111bとの境界に存在することがある。この場合、曲率半径及び反射率の違い等により、例えば図7中段に示すように検出光の角膜反射像113の形が歪み、例えば扁平率の大きい楕円形、長円形等の形状となったり、図7下段に示すように複数の角膜反射像113が形成されたりする。このため、角膜反射中心の位置データの検出精度が低下し、視線の検出精度が低下する可能性がある。 As shown in the middle and bottom rows of Figure 7, when the subject looks at a position significantly deviated from the virtual light source 103V, the corneal reflection image 113 of the detection light irradiated onto the subject's eyeball 111 may be located at the boundary between the cornea 111a and the sclera 111b. In this case, due to differences in the radius of curvature and reflectivity, the shape of the corneal reflection image 113 of the detection light may be distorted, for example, as shown in the middle row of Figure 7, becoming an ellipse or oval with a high flattening ratio, or multiple corneal reflection images 113 may be formed, as shown in the bottom row of Figure 7. This may reduce the accuracy of detecting the position data of the corneal reflection center, and may reduce the accuracy of detecting the gaze.

これに対して、本実施形態では、一例として、被験者の瞳孔中心と角膜反射中心との間の対象距離に基づいて、検出光の反射像が被験者の角膜111aからはみ出さない位置に形成されるように、当該検出光を発光する光源を切り替える制御を行う。検出光の反射像が形成される位置は、例えば被験者の眼球の位置と、カメラと光源との位置関係と、によって決定される。 In contrast, in this embodiment, as an example, based on the target distance between the center of the subject's pupil and the center of the corneal reflection, control is performed to switch the light source that emits the detection light so that the reflected image of the detection light is formed at a position that does not extend beyond the subject's cornea 111a. The position at which the reflected image of the detection light is formed is determined, for example, by the position of the subject's eyeball and the positional relationship between the camera and the light source.

図8は、検出光の反射像が形成された眼球の一例を示す図である。図8に示すように、光源制御部22は、眼球111の画像データに基づいて算出された瞳孔中心112Cと角膜反射中心113Cとの間の対象距離を算出する。光源制御部22は、対象距離として、例えば瞳孔中心112Cと角膜反射中心113Cとの間の上下方向(Y方向)及び左右方向(X方向)のそれぞれについて距離を算出することができる。なお、光源制御部22は、瞳孔中心112Cと角膜反射中心113Cとの間の最短距離を対象距離として算出してもよい。以下、瞳孔中心112Cと角膜反射中心113Cとの間の上下方向の距離を対象距離DYと表記し、左右方向の距離を対象距離DXと表記する。図8に示す例において、光源制御部22は、対象距離DYと、対象距離DXとを算出する場合を示している。光源制御部22は、例えば瞳孔中心112CのY座標(Y2)と、角膜反射中心113CのY座標(Y1)との差の絶対値|Y2-Y1|を対象距離DYとして算出することができる。また、光源制御部22は、例えば瞳孔中心112CのX座標(X2)と、角膜反射中心113CのX座標(X1)との差の絶対値|X2-X1|を対象距離DXとして算出することができる。 Figure 8 is a diagram showing an example of an eyeball on which a reflected image of the detection light is formed. As shown in Figure 8, the light source control unit 22 calculates the target distance between the pupil center 112C and the corneal reflex center 113C, which is calculated based on image data of the eyeball 111. The light source control unit 22 can calculate the target distance, for example, in the vertical direction (Y direction) and the horizontal direction (X direction) between the pupil center 112C and the corneal reflex center 113C. Note that the light source control unit 22 may also calculate the shortest distance between the pupil center 112C and the corneal reflex center 113C as the target distance. Hereinafter, the vertical distance between the pupil center 112C and the corneal reflex center 113C will be referred to as the target distance DY, and the horizontal distance will be referred to as the target distance DX. In the example shown in Figure 8, the light source control unit 22 calculates the target distance DY and the target distance DX. The light source control unit 22 can calculate, for example, the absolute value |Y2-Y1| of the difference between the Y coordinate (Y2) of the pupil center 112C and the Y coordinate (Y1) of the corneal reflection center 113C as the target distance DY. The light source control unit 22 can also calculate, for example, the absolute value |X2-X1| of the difference between the X coordinate (X2) of the pupil center 112C and the X coordinate (X1) of the corneal reflection center 113C as the target distance DX.

本実施形態では、被験者が眼球111を移動させることで、瞳孔中心112C、角膜111a及び強膜111bの位置が変化する。このため、角膜反射像113と瞳孔中心112C、角膜111a及び強膜111bとの相対的な位置関係が変化し、対象距離DY及び対象距離DXが変化する。例えば、図8に示すように角膜反射像113が瞳孔中心112Cに対して図中の右下に位置する場合において、被験者が眼球111を角膜反射像113とは反対側に移動させた場合(左上:図中の一点鎖線)、角膜反射像113と瞳孔中心112C、角膜111a及び強膜111bとの相対的な位置関係が変化し、対象距離DY及び対象距離DXが大きくなる。 In this embodiment, when the subject moves the eyeball 111, the positions of the pupil center 112C, cornea 111a, and sclera 111b change. This changes the relative positional relationship between the corneal reflection image 113 and the pupil center 112C, cornea 111a, and sclera 111b, and the object distances DY and DX change. For example, as shown in FIG. 8, if the corneal reflection image 113 is located to the lower right of the pupil center 112C and the subject moves the eyeball 111 opposite the corneal reflection image 113 (upper left: dashed line in the figure), the relative positional relationship between the corneal reflection image 113 and the pupil center 112C, cornea 111a, and sclera 111b changes, and the object distances DY and DX increase.

本実施形態では、角膜反射像113が角膜111a上の位置に収まるような対象距離DY及び対象距離DXの閾値を予め設定しておく。なお、光源制御部22は、キャリブレーション処理において、対象距離DY及び対象距離DXの閾値を設定してもよい。この場合、例えば被験者が表示部101の表示画面101Sの中心位置を注視した場合の対象距離DY及び対象距離DXの値を閾値として用いることができる。光源制御部22は、第1光源103A及び第2光源103Bから検出光を照射する場合の閾値と、第3光源103C及び第4光源103Dから検出光を照射する場合の閾値とをそれぞれ設定する。したがって、第1光源103A及び第2光源103Bから検出光を照射する状態で、対象距離DYが閾値を超える場合には、被験者が表示画面101Sの中心位置よりも上方を注視していると判断できる。また、第3光源103C及び第4光源103Dから検出光を照射する状態で、対象距離DYが閾値を超える場合には、被験者が表示画面101Sの中心位置よりも下方を注視していると判断できる。光源制御部22は、算出した対象距離DY及び対象距離DXが、予め設定した閾値未満となるように、検出光を照射する照明装置103を切り替えるようにする。光源制御部22は、対象距離DY及び対象距離DXの一方の距離のみを用いて照明装置103の切り替え制御を行ってもよい。以下、対象距離DYについて閾値を設定し、対象距離DYが閾値未満となるように制御する場合を例に挙げて説明する。第1光源103A及び第2光源103Bから検出光を照射する場合の対象距離DYの閾値をαとし、第3光源103C及び第4光源103Dから検出光を照射する場合の対象距離DYの閾値をβとする。なお、対象距離DY及び対象距離DXの両方の距離を用いて照明装置103の切り替え制御を行う場合、対象距離DY及び対象距離DXの少なくとも一方の値が閾値未満となるように制御することができる。 In this embodiment, thresholds for the object distance DY and the object distance DX are set in advance so that the corneal reflection image 113 fits within a position on the cornea 111a. The light source control unit 22 may also set the thresholds for the object distance DY and the object distance DX during the calibration process. In this case, for example, the values of the object distance DY and the object distance DX when the subject gazes at the center position of the display screen 101S of the display unit 101 can be used as the thresholds. The light source control unit 22 sets thresholds for when the detection light is emitted from the first light source 103A and the second light source 103B, and thresholds for when the detection light is emitted from the third light source 103C and the fourth light source 103D, respectively. Therefore, if the object distance DY exceeds the threshold when the detection light is emitted from the first light source 103A and the second light source 103B, it can be determined that the subject is gazing above the center position of the display screen 101S. Furthermore, when the target distance DY exceeds a threshold value when the detection light is emitted from the third light source 103C and the fourth light source 103D, it can be determined that the subject is gazing below the center position of the display screen 101S. The light source control unit 22 switches the illumination device 103 that emits the detection light so that the calculated target distance DY and target distance DX are less than a preset threshold value. The light source control unit 22 may control the switching of the illumination device 103 using only one of the target distance DY and the target distance DX. Below, an example will be described in which a threshold value is set for the target distance DY and control is performed so that the target distance DY is less than the threshold value. The threshold value for the target distance DY when the detection light is emitted from the first light source 103A and the second light source 103B is α, and the threshold value for the target distance DY when the detection light is emitted from the third light source 103C and the fourth light source 103D is β. When controlling the switching of the lighting device 103 using both the target distance DY and the target distance DX, control can be performed so that the value of at least one of the target distance DY and the target distance DX is less than a threshold value.

図9から図13は、視線検出処理における照明装置103の動作の一例を示す図である。視線検出処理において、初回の注視点の検出を行う場合、光源制御部22は、例えば第1光源103A及び第2光源103Bから検出光が発光するように制御する。図9に示すように、例えば眼球111の画像データにおける瞳孔中心112Cと角膜反射中心113CとのY方向の対象距離DYが閾値α未満である場合、光源制御部22は、下部光源である第1光源103A及び第2光源103Bから検出光が発光するように制御する。 Figures 9 to 13 are diagrams showing an example of the operation of the lighting device 103 in the gaze detection process. When detecting the initial gaze point in the gaze detection process, the light source control unit 22 controls, for example, the first light source 103A and the second light source 103B to emit detection light. As shown in Figure 9, for example, when the target distance DY in the Y direction between the pupil center 112C and the corneal reflex center 113C in the image data of the eyeball 111 is less than the threshold value α, the light source control unit 22 controls the first light source 103A and the second light source 103B, which are bottom light sources, to emit detection light.

一方、図10に示すように、例えば眼球111の画像データにおける瞳孔中心112Cと角膜反射中心113CとのY方向の対象距離DYが閾値α以上である場合、光源制御部22は、図11に示すように、上部光源である第3光源103C及び第4光源103Dから検出光が発光するように切り替える。 On the other hand, as shown in FIG. 10, for example, when the target distance DY in the Y direction between the pupil center 112C and the corneal reflex center 113C in the image data of the eyeball 111 is equal to or greater than the threshold value α, the light source control unit 22 switches to emitting detection light from the third light source 103C and fourth light source 103D, which are upper light sources, as shown in FIG. 11.

光源制御部22は、上部光源である第3光源103C及び第4光源103Dから検出光が発光される場合においても同様の制御を行うことができる。図11に示すように、例えば眼球111の画像データにおける瞳孔中心112Cと角膜反射中心113CとのY方向の対象距離DYが閾値β未満である場合、光源制御部22は、上部光源である第3光源103C及び第4光源103Dから検出光が発光するように制御する。 The light source control unit 22 can also perform similar control when detection light is emitted from the third light source 103C and fourth light source 103D, which are upper light sources. As shown in FIG. 11, for example, when the target distance DY in the Y direction between the pupil center 112C and the corneal reflex center 113C in the image data of the eyeball 111 is less than the threshold value β, the light source control unit 22 controls so that detection light is emitted from the third light source 103C and fourth light source 103D, which are upper light sources.

一方、図12に示すように、例えば眼球111の画像データにおける瞳孔中心112Cと角膜反射中心113CとのY方向の対象距離DYが閾値β以上である場合、光源制御部22は、図13に示すように、下部光源である第1光源103A及び第2光源103Bから検出光が発光するように切り替える。 On the other hand, as shown in FIG. 12, for example, when the target distance DY in the Y direction between the pupil center 112C and the corneal reflex center 113C in the image data of the eyeball 111 is equal to or greater than the threshold value β, the light source control unit 22 switches to emitting detection light from the first light source 103A and the second light source 103B, which are lower light sources, as shown in FIG. 13.

光源制御部22は、下部光源である第1光源103A及び第2光源103Bの一方を発光させて眼球111に検出光を照射し、第1カメラ102A及び第2カメラ102Bのうち発光した光源から遠い方のカメラにより、被験者の眼球111を撮影する。その後、第1光源103A及び第2光源103Bの他方を発光させて眼球111に検出光を照射し、第1カメラ102A及び第2カメラ102Bのうち発光した光源から遠い方のカメラにより、被験者の眼球111を撮影する。例えば、第1光源103Aから検出光を射出した場合には、第2カメラ102Bで眼球111を撮影する。また、第2光源103Bから検出光を射出した場合には、第1カメラ102Aで眼球111を撮影する。 The light source control unit 22 causes one of the lower light sources, the first light source 103A or the second light source 103B, to emit light to irradiate the eyeball 111 with detection light, and then photographs the subject's eyeball 111 using either the first camera 102A or the second camera 102B, whichever is farthest from the emitting light source. Then, the other of the first light source 103A or the second light source 103B emits light to irradiate the eyeball 111 with detection light, and photographs the subject's eyeball 111 using either the first camera 102A or the second camera 102B, whichever is farthest from the emitting light source. For example, when detection light is emitted from the first light source 103A, the eyeball 111 is photographed by the second camera 102B. Furthermore, when detection light is emitted from the second light source 103B, the eyeball 111 is photographed by the first camera 102A.

同様に、光源制御部22は、上部光源である第3光源103C及び第4光源103Dの一方を発光させて眼球111に検出光を照射し、第1カメラ102A及び第2カメラ102Bのうち発光した光源から遠い方のカメラにより、被験者の眼球111を撮影する。その後、第3光源103C及び第4光源103Dの他方を発光させて眼球111に検出光を照射し、第1カメラ102A及び第2カメラ102Bのうち発光した光源から遠い方のカメラにより、被験者の眼球111を撮影する。例えば、第3光源103Cから検出光を射出した場合には、第2カメラ102Bで眼球111を撮影する。また、第4光源103Dから検出光を射出した場合には、第1カメラ102Aで眼球111を撮影する。 Similarly, the light source control unit 22 causes one of the third light source 103C and the fourth light source 103D, which are upper light sources, to emit light to irradiate the eyeball 111 with detection light, and then photographs the subject's eyeball 111 using either the first camera 102A or the second camera 102B, whichever is farthest from the emitting light source. Then, the other of the third light source 103C and the fourth light source 103D emits light to irradiate the eyeball 111 with detection light, and photographs the subject's eyeball 111 using either the first camera 102A or the second camera 102B, whichever is farthest from the emitting light source. For example, when detection light is emitted from the third light source 103C, the eyeball 111 is photographed by the second camera 102B. Furthermore, when detection light is emitted from the fourth light source 103D, the eyeball 111 is photographed by the first camera 102A.

画像データ取得部23は、画像データを取得する。位置検出部24は、取得した画像データに基づいて、瞳孔中心及び角膜反射中心の位置データを検出する。位置検出部24は、角膜反射中心の位置データを正常に検出したか否かを判定する。検出光の反射像が被験者の角膜上に収まっている場合、正常な値が検出される可能性が高くなる。一方、検出光の反射像が被験者の角膜上に収まっておらず、例えば強膜上にはみ出して歪んでいる等の場合、正常な値が検出される可能性が低くなる。正常な値が検出された場合、曲率中心算出部25及び注視点検出部26における各処理により、注視点の位置データが取得される。なお、正常な値が検出されない場合、注視点検出部26は、当該視線検出処理においては、例えばエラー判定とすることができる。 The image data acquisition unit 23 acquires image data. The position detection unit 24 detects position data of the pupil center and corneal reflex center based on the acquired image data. The position detection unit 24 determines whether the position data of the corneal reflex center has been detected correctly. If the reflected image of the detection light is located on the subject's cornea, there is a high possibility that a normal value will be detected. On the other hand, if the reflected image of the detection light is not located on the subject's cornea and, for example, is distorted by extending onto the sclera, there is a low possibility that a normal value will be detected. If a normal value is detected, the curvature center calculation unit 25 and the gaze point detection unit 26 perform their respective processes to acquire gaze point position data. Note that if a normal value is not detected, the gaze point detection unit 26 may, for example, determine that the gaze detection process is an error.

角膜反射中心の正常な値が検出された場合、曲率中心算出部25は、検出された値に基づいて、角膜曲率中心を算出する。このとき、曲率中心算出部25は、当該視線検出処理において検出光を発光する光源が下部光源(第1光源103A及び第2光源103B)であった場合には、キャリブレーション処理において算出された2種類の距離(角膜曲率中心と瞳孔中心との距離)Ra、Rbのうち、検出光を発光する光源を下部光源とした場合に算出された距離Raの値を用いて、角膜曲率中心を算出する。また、曲率中心算出部25は、当該視線検出処理において検出光を発光する光源を上部光源(第3光源103C及び第4光源103D)とした場合には、キャリブレーション処理において検出光を発光する光源を上部光源とした場合に算出された距離Rbの値を用いて、角膜曲率中心を算出する。 When a normal value for the corneal reflex center is detected, the curvature center calculation unit 25 calculates the corneal center of curvature based on the detected value. At this time, if the light source emitting the detection light in the gaze detection process is a lower light source (first light source 103A and second light source 103B), the curvature center calculation unit 25 calculates the corneal center of curvature using the value of the distance Ra calculated when the light source emitting the detection light is a lower light source, out of the two distances Ra and Rb calculated in the calibration process (the distance between the corneal center of curvature and the pupil center). Furthermore, if the light source emitting the detection light in the gaze detection process is an upper light source (third light source 103C and fourth light source 103D), the curvature center calculation unit 25 calculates the corneal center of curvature using the value of the distance Rb calculated when the light source emitting the detection light is an upper light source.

次に、本実施形態に係る視線検出方法の一例について、図14を参照しながら説明する。図14は、本実施形態に係る視線検出方法における視線検出処理の一例を示すフローチャートである。図14に示すように、視線検出処理において、光源制御部22は、下部光源(第1光源103A及び第2光源103B)及び上部光源(第3光源103C及び第4光源103D)の一方から検出光を発光させる(ステップS101)。この場合、光源制御部22の制御は、第1光源103A及び第2光源103Bの一方を発光させて眼球111に検出光を照射し、第1カメラ102A及び第2カメラ102Bのうち発光した光源から遠い方のカメラにより、被験者の眼球111を撮影する(ステップS102)。また、光源制御部22の制御により第1光源103A及び第2光源103Bの他方を発光させて眼球111に検出光を照射し、第1カメラ102A及び第2カメラ102Bのうち発光した光源から遠い方のカメラにより、被験者の眼球111を撮影する(ステップS103)。例えば、第1光源103Aから検出光を射出した場合には、第2カメラ102Bで眼球111を撮影する。また、第2光源103Bから検出光を射出した場合には、第1カメラ102Aで眼球111を撮影する。 Next, an example of a gaze detection method according to this embodiment will be described with reference to FIG. 14. FIG. 14 is a flowchart showing an example of gaze detection processing in the gaze detection method according to this embodiment. As shown in FIG. 14, in the gaze detection processing, the light source control unit 22 causes one of the lower light sources (first light source 103A and second light source 103B) and the upper light source (third light source 103C and fourth light source 103D) to emit detection light (step S101). In this case, the light source control unit 22 controls one of the first light source 103A and the second light source 103B to emit light to irradiate the eyeball 111 with the detection light, and then photographs the subject's eyeball 111 using the camera farthest from the emitting light source, either the first camera 102A or the second camera 102B (step S102). Further, under the control of light source control unit 22, the other of first light source 103A and second light source 103B is caused to emit light to irradiate eyeball 111 with detection light, and the subject's eyeball 111 is photographed by either first camera 102A or second camera 102B, whichever is farthest from the emitting light source (step S103). For example, when detection light is emitted from first light source 103A, eyeball 111 is photographed by second camera 102B. When detection light is emitted from second light source 103B, eyeball 111 is photographed by first camera 102A.

画像データ取得部23は、画像データを取得する。位置検出部24は、取得した画像データに基づいて、瞳孔中心及び角膜反射中心の位置データを検出する。その後、曲率中心算出部25及び注視点検出部26における各処理により注視点の位置データが取得される(ステップS104)。ステップS104において、曲率中心算出部25は、視線検出処理において検出光を発光する光源を下部光源(第1光源103A及び第2光源103B)とした場合には、キャリブレーション処理において検出光を発光する光源を下部光源とした場合に算出された距離Raの値を用いて、角膜曲率中心を算出する。また、曲率中心算出部25は、視線検出処理において検出光を発光する光源を上部光源(第3光源103C)とした場合には、キャリブレーション処理において検出光を発光する光源を上部光源とした場合に算出された距離Rbの値を用いて、角膜曲率中心を算出する。なお、ステップS104において正常な値が検出されなかった場合、エラー判定として処理を終了してもよい。 The image data acquisition unit 23 acquires image data. The position detection unit 24 detects position data of the pupil center and the corneal reflex center based on the acquired image data. Then, the center of curvature calculation unit 25 and the point of gaze detection unit 26 perform their respective processes to acquire position data of the point of gaze (step S104). In step S104, if the light source that emits the detection light in the gaze detection process is the lower light source (first light source 103A and second light source 103B), the center of curvature calculation unit 25 calculates the corneal center of curvature using the value of the distance Ra calculated when the light source that emits the detection light in the calibration process is the lower light source. Furthermore, if the light source that emits the detection light in the gaze detection process is the upper light source (third light source 103C), the center of curvature calculation unit 25 calculates the corneal center of curvature using the value of the distance Rb calculated when the light source that emits the detection light in the calibration process is the upper light source. Note that if a normal value is not detected in step S104, an error may be determined and the process may be terminated.

ステップS104の後、注視点検出部26は、注視点の検出を終了するか否かを判定する(ステップS105)。ステップS105の判定の結果、注視点の検出を終了する場合(ステップS105のYes)、処理を終了する。また、注視点の検出を終了しない場合(ステップS105のNo)、光源制御部22は、眼球111の画像データにおける瞳孔中心112Cと角膜反射中心113Cとの間の対象距離が閾値未満であるか否かを判定する(ステップS106)。瞳孔中心112Cと角膜反射中心113Cとの間の対象距離が閾値未満であると判定した場合(ステップS106のYes)、光源制御部22は、下部光源と上部光源との間で検出光を発光させる光源を切り替えず、ステップS102以降の処理を繰り返し行わせる(ステップS107)。一方、瞳孔中心112Cと角膜反射中心113Cとの間の対象距離が閾値未満ではないと判定した場合、光源制御部22は、下部光源と上部光源との間で検出光を発光させる光源を切り替えて、ステップS102以降の処理を繰り返し行わせる(ステップS108)。 After step S104, the gaze point detection unit 26 determines whether or not to terminate gaze point detection (step S105). If the result of the determination in step S105 is that gaze point detection is to be terminated (Yes in step S105), the processing is terminated. On the other hand, if gaze point detection is not to be terminated (No in step S105), the light source control unit 22 determines whether the object distance between the pupil center 112C and the corneal reflex center 113C in the image data of the eyeball 111 is less than a threshold value (step S106). If it is determined that the object distance between the pupil center 112C and the corneal reflex center 113C is less than the threshold value (Yes in step S106), the light source control unit 22 does not switch the light source that emits detection light between the lower light source and the upper light source, and repeats the processing from step S102 onwards (step S107). On the other hand, if it is determined that the target distance between the pupil center 112C and the corneal reflex center 113C is not less than the threshold, the light source control unit 22 switches the light source that emits the detection light between the lower light source and the upper light source, and repeats the processing from step S102 onwards (step S108).

次に、本実施形態において、検出光を発光する光源を切り替える制御の他の例を説明する。以下では、眼球111の画像データにおける検出光の角膜反射像113の形状が基準形状に含まれるか否かに基づいて、検出光を発光する光源を切り替える制御を行う場合を例に挙げて説明する。 Next, another example of control for switching the light source that emits detection light in this embodiment will be described. Below, we will explain an example of control for switching the light source that emits detection light based on whether the shape of the corneal reflection image 113 of the detection light in the image data of the eyeball 111 is included in the reference shape.

図15は、検出光の反射像が形成された眼球の他の例を示す図である。図15の上段に示すように、被験者の眼球111に照射される検出光の角膜反射像113が角膜111a上に存在する場合には、角膜反射像113の形状が例えば扁平率の小さい1つの楕円形状なる。したがって、本実施形態においては、扁平率が閾値未満の1つの楕円形状を基準形状とすることができる。所定値については、例えば角膜反射像113が角膜111a上に存在する場合の値を予め算出し、算出結果の平均値又は最小値を用いることができるが、この態様に限定されない。被験者の眼球111に照射される検出光の角膜反射像113が角膜111a上に存在する場合には、角膜反射像113の形状は、基準形状に含まれる形状となる。基準形状は、例えば記憶部27に記憶させておくことができる。 Figure 15 is a diagram showing another example of an eyeball on which a reflection image of the detection light is formed. As shown in the upper part of Figure 15, when the corneal reflection image 113 of the detection light irradiated onto the subject's eyeball 111 is present on the cornea 111a, the shape of the corneal reflection image 113 is, for example, a single ellipse with a small flattening ratio. Therefore, in this embodiment, a single ellipse with a flattening ratio less than a threshold value can be used as the reference shape. For example, the predetermined value can be calculated in advance for when the corneal reflection image 113 is present on the cornea 111a, and the average or minimum value of the calculation results can be used, but this is not limited to this embodiment. When the corneal reflection image 113 of the detection light irradiated onto the subject's eyeball 111 is present on the cornea 111a, the shape of the corneal reflection image 113 will be a shape included in the reference shape. The reference shape can be stored, for example, in the memory unit 27.

一方、被験者の眼球111に照射される検出光の角膜反射像113が角膜111aと強膜111bとの境界に存在する場合、例えば図15の中段に示すように角膜反射像113の形状が例えば扁平率の大きい楕円形、長円形等の形状となったり、図15の下段に示すように複数の角膜反射像113が形成されたりする。つまり、被験者の眼球111に照射される検出光の角膜反射像113が角膜111aと強膜111bとの境界に存在する場合、角膜反射像113の形状は、基準形状には含まれない形状となる。 On the other hand, if the corneal reflection image 113 of the detection light irradiated onto the subject's eyeball 111 is located at the boundary between the cornea 111a and the sclera 111b, the shape of the corneal reflection image 113 may be, for example, an ellipse or oval with a large flattening ratio, as shown in the middle of Figure 15, or multiple corneal reflection images 113 may be formed, as shown in the bottom of Figure 15. In other words, if the corneal reflection image 113 of the detection light irradiated onto the subject's eyeball 111 is located at the boundary between the cornea 111a and the sclera 111b, the shape of the corneal reflection image 113 will be a shape that is not included in the reference shape.

これを踏まえ、光源制御部22は、眼球111の画像データについて画像処理を行うことにより、検出光の角膜反射像113の形状を求める。例えば、光源制御部22は、画像データにおいて、輝度が所定値を超える領域を角膜反射像113の領域として算出する。光源制御部22は、算出した角膜反射像113の領域の数を算出する。算出結果が2以上の場合、光源制御部22は、角膜反射像113の形状が基準形状には含まれないと判定することができる。 Based on this, the light source control unit 22 performs image processing on the image data of the eyeball 111 to determine the shape of the corneal reflection image 113 of the detection light. For example, the light source control unit 22 calculates areas in the image data where the brightness exceeds a predetermined value as the areas of the corneal reflection image 113. The light source control unit 22 calculates the number of calculated areas of the corneal reflection image 113. If the calculation result is 2 or more, the light source control unit 22 can determine that the shape of the corneal reflection image 113 is not included in the reference shape.

また、算出結果が1の場合、光源制御部22は、算出した角膜反射像113の形状を判定する。光源制御部22は、例えば算出した角膜反射像113と基準形状Qとを比較し、一致する割合が所定値以上である場合に、角膜反射像113の形状が角膜反射像113の形状が基準形状に含まれると判定することができる。一方、光源制御部22は、算出した角膜反射像113と基準形状Qとを比較して一致する割合が所定値未満である場合には、角膜反射像113の形状が角膜反射像113の形状が基準形状には含まれないと判定することができる。 Also, if the calculation result is 1, the light source control unit 22 determines the shape of the calculated corneal reflection image 113. For example, the light source control unit 22 compares the calculated corneal reflection image 113 with the reference shape Q, and if the rate of match is a predetermined value or more, it can determine that the shape of the corneal reflection image 113 is included in the reference shape. On the other hand, if the light source control unit 22 compares the calculated corneal reflection image 113 with the reference shape Q and the rate of match is less than a predetermined value, it can determine that the shape of the corneal reflection image 113 is not included in the reference shape.

光源制御部22は、角膜反射像113の形状が基準形状には含まれないと判定した場合、下部光源(第1光源103A、第2光源103B)と、上部光源(第3光源103C、第4光源103D)との間で検出光を発光させる光源を切り替える。一方、光源制御部22は、角膜反射像113の形状が基準形状に含まれると判定した場合、検出光を発光させる光源の切り替えを行わないようにする。 If the light source control unit 22 determines that the shape of the corneal reflection image 113 is not included in the reference shape, it switches the light source that emits the detection light between the lower light source (first light source 103A, second light source 103B) and the upper light source (third light source 103C, fourth light source 103D). On the other hand, if the light source control unit 22 determines that the shape of the corneal reflection image 113 is included in the reference shape, it does not switch the light source that emits the detection light.

図16から図18は、視線検出処理における照明装置103の動作の他の例を示す図である。光源制御部22は、例えば第1光源103A及び第2光源103Bから検出光が発光するように制御する。例えば眼球111の画像データにおける検出光の角膜反射像113の形状が基準形状に含まれるか否かを判定する。 Figures 16 to 18 are diagrams showing other examples of the operation of the lighting device 103 in the gaze detection process. The light source control unit 22 controls, for example, the first light source 103A and the second light source 103B to emit detection light. For example, it determines whether the shape of the corneal reflection image 113 of the detection light in the image data of the eyeball 111 is included in the reference shape.

光源制御部22は、角膜反射像113の形状が基準形状に含まれると判定した場合、図16に示すように、検出光を発光させる光源の切り替えを行わないようにする。一方、図17に示すように、例えば角膜反射像113の形状が基準形状には含まれないと判定した場合、光源制御部22は、図18に示すように、上部光源である第3光源103C及び第4光源103Dから検出光が発光するように切り替える。 When the light source control unit 22 determines that the shape of the corneal reflection image 113 is included in the reference shape, it does not switch the light source that emits the detection light, as shown in FIG. 16. On the other hand, when it determines that the shape of the corneal reflection image 113 is not included in the reference shape, as shown in FIG. 17, the light source control unit 22 switches so that the detection light is emitted from the third light source 103C and the fourth light source 103D, which are upper light sources, as shown in FIG. 18.

図19は、本実施形態に係る視線検出方法における視線検出処理の他の例を示すフローチャートである。図19に示すように、ステップS201からステップS205については、上記した被験者の瞳孔中心と角膜反射中心との間の対象距離に基づいて検出光を発光する光源を切り替える制御の場合のステップS101からステップS105(図14参照)と同様である。 Figure 19 is a flowchart showing another example of the gaze detection process in the gaze detection method according to this embodiment. As shown in Figure 19, steps S201 to S205 are the same as steps S101 to S105 (see Figure 14) in the case of control for switching the light source that emits detection light based on the target distance between the subject's pupil center and the corneal reflex center.

ステップS205の判定の結果、注視点の検出を終了する場合(ステップS205のYes)、処理を終了する。また、注視点の検出を終了しない場合(ステップS205のNo)、光源制御部22は、眼球111の画像データにおける角膜反射像113の形状が基準形状に含まれるか否かを判定する(ステップS206)。角膜反射像113の形状が基準形状に含まれると判定した場合(ステップS206のYes)、光源制御部22は、下部光源と上部光源との間で検出光を発光させる光源を切り替えず、ステップS202以降の処理を繰り返し行わせる(ステップS207)。一方、角膜反射像113の形状が基準形状には含まれないと判定した場合、光源制御部22は、下部光源と上部光源との間で検出光を発光させる光源を切り替えて、ステップS102以降の処理を繰り返し行わせる(ステップS208)。 If the result of the determination in step S205 is that detection of the gaze point is to be terminated (Yes in step S205), the processing is terminated. If detection of the gaze point is not to be terminated (No in step S205), the light source control unit 22 determines whether the shape of the corneal reflection image 113 in the image data of the eyeball 111 is included in the reference shape (step S206). If it is determined that the shape of the corneal reflection image 113 is included in the reference shape (Yes in step S206), the light source control unit 22 does not switch the light source that emits detection light between the lower light source and the upper light source, and repeats the processing from step S202 onwards (step S207). On the other hand, if it is determined that the shape of the corneal reflection image 113 is not included in the reference shape, the light source control unit 22 switches the light source that emits detection light between the lower light source and the upper light source, and repeats the processing from step S102 onwards (step S208).

図20は、本実施形態に係る視線検出方法における視線検出処理の他の例を示すフローチャートである。図20に示す例では、被験者の瞳孔中心と角膜反射中心との間の対象距離に基づいて検出光を発光する光源を切り替える制御と、角膜反射像113の形状が基準形状に含まれるか否かに基づいて検出光を発光する光源を切り替える制御とを組み合わせた場合の例を示している。 Figure 20 is a flowchart showing another example of the gaze detection process in the gaze detection method according to this embodiment. The example shown in Figure 20 shows a combination of control for switching the light source that emits detection light based on the target distance between the subject's pupil center and the corneal reflex center, and control for switching the light source that emits detection light based on whether the shape of the corneal reflex image 113 is included in the reference shape.

図20に示すように、ステップS301からステップS304については、上記した角制御におけるステップS101(S201)からステップS104(S204)と同様である(図14、図19参照)。 As shown in Figure 20, steps S301 to S304 are similar to steps S101 (S201) to S104 (S204) in the angle control described above (see Figures 14 and 19).

ステップS304の後、注視点検出部26は、注視点が正常に検出されたか否かを判定する(ステップS305)。ステップS305において、注視点が正常に検出されたと判定された場合(ステップS305のYes)、注視点検出部26及び光源制御部22は、ステップS306からステップS309の処理を行う。ステップS306からステップS309は、被験者の瞳孔中心と角膜反射中心との間の対象距離に基づいて検出光を発光する光源を切り替える制御におけるステップS105からステップS108の各処理と同様である(図14参照)。 After step S304, the gaze point detection unit 26 determines whether the gaze point has been detected normally (step S305). If it is determined in step S305 that the gaze point has been detected normally (Yes in step S305), the gaze point detection unit 26 and light source control unit 22 perform the processes of steps S306 to S309. Steps S306 to S309 are similar to the processes of steps S105 to S108 in controlling the switching of the light source that emits detection light based on the target distance between the subject's pupil center and the corneal reflex center (see FIG. 14).

一方、ステップS305において、注視点が正常に検出されないと判定された場合(ステップS305のNo)、光源制御部22は、ステップS310からステップS312の処理を行う。ステップS310からステップS312は、角膜反射像113の形状が基準形状に含まれるか否かに基づいて検出光を発光する光源を切り替える制御におけるステップS206からステップS208の各処理と同様である(図19参照)。 On the other hand, if it is determined in step S305 that the gaze point has not been detected normally (No in step S305), the light source control unit 22 performs the processes of steps S310 to S312. Steps S310 to S312 are similar to the processes of steps S206 to S208 in controlling the switching of the light source that emits detection light based on whether the shape of the corneal reflection image 113 is included in the reference shape (see FIG. 19).

被験者の瞳孔中心と角膜反射中心との間の対象距離に基づいて検出光を発光する光源を切り替える制御は、瞳孔中心の位置と角膜反射中心の位置として正常な値が算出された場合、つまり注視点の位置が正常に検出される場合に、当該瞳孔中心の位置と角膜反射中心の位置の正常な値に基づいて行うことができる。一方、角膜反射像113の形状が基準形状に含まれるか否かに基づいて検出光を発光する光源を切り替える制御は、瞳孔中心の位置と角膜反射中心の位置を算出することなく、角膜反射像113の形状に基づいて行うことができる。このため、瞳孔中心の位置と角膜反射中心の位置として正常な値が得られない場合においても、検出光を発光する光源の切り替え制御を適切に行うことができる。 Control for switching the light source that emits detection light based on the target distance between the subject's pupil center and corneal reflex center can be performed based on the normal values of the pupil center position and corneal reflex center position when normal values are calculated for the pupil center position and corneal reflex center position, i.e., when the gaze point position is detected normally. On the other hand, control for switching the light source that emits detection light based on whether the shape of the corneal reflex image 113 is included in the reference shape can be performed based on the shape of the corneal reflex image 113 without calculating the pupil center position and corneal reflex center position. Therefore, even when normal values cannot be obtained for the pupil center position and corneal reflex center position, control for switching the light source that emits detection light can be performed appropriately.

以上のように、本実施形態に係る視線検出装置100は、画像を表示する表示部101と、検出光を発光して被験者の少なくとも一方の眼球111に照射する複数の光源(第1光源103A、第2光源103B、第3光源103C、第4光源103D)と、検出光が照射された眼球111の画像を撮像するステレオカメラ装置102と、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部24と、瞳孔中心の位置と角膜反射中心の位置とに基づいて被験者の注視点の位置を算出する注視点検出部26と、瞳孔中心と角膜反射中心との間の対象距離に基づいて、複数の光源のうち検出光を発光する光源を切り替える光源制御部22とを備える。 As described above, the gaze detection device 100 according to this embodiment includes a display unit 101 that displays an image, multiple light sources (first light source 103A, second light source 103B, third light source 103C, fourth light source 103D) that emit detection light and illuminate at least one eyeball 111 of the subject, a stereo camera device 102 that captures an image of the eyeball 111 illuminated with the detection light, a position detection unit 24 that detects, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball 111 illuminated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex, a gaze point detection unit 26 that calculates the position of the gaze point of the subject based on the positions of the pupil center and the corneal reflex center, and a light source control unit 22 that switches between the multiple light sources that emit detection light based on the target distance between the pupil center and the corneal reflex center.

また、本実施形態に係る視線検出方法は、表示部101に画像を表示することと、複数の光源から検出光を発光して被験者の少なくとも一方の眼球111に照射することと、検出光が照射された眼球111の画像を撮像することと、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出することと、瞳孔中心の位置と角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出することと、瞳孔中心と角膜反射中心との間の対象距離に基づいて複数の光源のうち検出光を発光する光源を切り替えることとを含む。 The gaze detection method according to this embodiment also includes displaying an image on the display unit 101, emitting detection light from multiple light sources and irradiating it onto at least one eyeball 111 of the subject, capturing an image of the eyeball 111 irradiated with the detection light, detecting from the captured image the position of the pupil center indicating the center of the pupil of the eyeball 111 irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex, calculating the position of the subject's gaze point based on the position of the pupil center and the position of the center of corneal curvature, and switching the light source that emits the detection light from among the multiple light sources based on the target distance between the pupil center and the corneal reflex center.

また、本実施形態に係る視線検出プログラムは、表示部101に画像を表示する処理と、複数の光源から検出光を発光して被験者の少なくとも一方の眼球111に照射する処理と、検出光が照射された眼球111の画像を撮像する処理と、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する処理と、瞳孔中心の位置と角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出する処理と、瞳孔中心と角膜反射中心との間の対象距離に基づいて複数の光源のうち検出光を発光する光源を切り替える処理とをコンピュータに実行させる。 In addition, the gaze detection program according to this embodiment causes a computer to execute the following processes: displaying an image on the display unit 101; emitting detection light from multiple light sources and irradiating it onto at least one eyeball 111 of the subject; capturing an image of the eyeball 111 irradiated with the detection light; detecting, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball 111 irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex; calculating the position of the subject's gaze point based on the position of the pupil center and the position of the center of corneal curvature; and switching between the light sources emitting detection light from among the multiple light sources based on the target distance between the pupil center and the corneal reflex center.

本実施形態に係る構成によれば、瞳孔中心と角膜反射中心との間の対象距離に基づいて、複数の光源のうち検出光を発光する光源を切り替えることができるため、被験者の眼球に照射される検出光の反射像が角膜の外側にはみ出すことを抑制できる。これにより、視線の検出精度の低下を抑制できる。 With the configuration of this embodiment, the light source that emits the detection light can be switched from among multiple light sources based on the target distance between the pupil center and the corneal reflection center, preventing the reflected image of the detection light irradiated onto the subject's eyeball from extending outside the cornea. This prevents a decrease in gaze detection accuracy.

本実施形態に係る視線検出装置100において、複数の光源は、表示部101の下方に設置された第1光源103A及び第2光源103Bと、表示部101の上方に設置された第3光源103C及び第4光源103Dとを含み、距離は、上下方向の対象距離DYであり、光源制御部22は、検出光を発光する光源を下部光源と上部光源との間で切り替える。この構成によれば、上下方向の対象距離DYに基づいて検出光を発光する光源を下部光源と上部光源との間で切り替えるため、検出光の反射像を被験者の角膜内に確実に配置することができる。 In the gaze detection device 100 according to this embodiment, the multiple light sources include a first light source 103A and a second light source 103B installed below the display unit 101, and a third light source 103C and a fourth light source 103D installed above the display unit 101, the distance being the target distance DY in the vertical direction, and the light source control unit 22 switches the light source that emits the detection light between the lower light source and the upper light source. With this configuration, the light source that emits the detection light is switched between the lower light source and the upper light source based on the target distance DY in the vertical direction, so that the reflected image of the detection light can be reliably positioned within the subject's cornea.

本実施形態に係る視線検出装置100において、光源制御部22は、眼球111の画像における検出光の角膜反射像113の形状が基準形状に含まれるか否かに基づいて、検出光を発光する光源を切り替える。これにより、瞳孔中心の位置と角膜反射中心の位置が得られない場合においても、検出光を発光する光源の切り替えを適切に行うことができる。 In the gaze detection device 100 according to this embodiment, the light source control unit 22 switches the light source that emits the detection light based on whether the shape of the corneal reflection image 113 of the detection light in the image of the eyeball 111 is included in the reference shape. This allows the light source that emits the detection light to be switched appropriately even when the positions of the pupil center and the corneal reflection center cannot be obtained.

また、本実施形態に係る視線検出装置100は、画像を表示する表示部101と、検出光を発光して被験者の少なくとも一方の眼球111に照射する複数の光源(第1光源103A、第2光源103B、第3光源103C、第4光源103D)と、検出光が照射された眼球111の画像を撮像するステレオカメラ装置102と、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部24と、瞳孔中心の位置と角膜反射中心の位置とに基づいて被験者の注視点の位置を算出する注視点検出部26と、眼球111の画像における検出光の角膜反射像113の形状が基準形状に含まれるか否かに基づいて、複数の光源のうち検出光を発光する光源を切り替える光源制御部22とを備える。 The gaze detection device 100 according to this embodiment also includes a display unit 101 that displays an image, multiple light sources (first light source 103A, second light source 103B, third light source 103C, fourth light source 103D) that emit detection light and irradiate it onto at least one eyeball 111 of the subject, a stereo camera device 102 that captures an image of the eyeball 111 irradiated with the detection light, a position detection unit 24 that detects, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball 111 irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex, a gaze point detection unit 26 that calculates the position of the gaze point of the subject based on the position of the pupil center and the position of the corneal reflex center, and a light source control unit 22 that switches the light source that emits the detection light from among the multiple light sources based on whether the shape of the corneal reflex image 113 of the detection light in the image of the eyeball 111 is included in a reference shape.

また、本実施形態に係る視線検出方法は、表示部101に画像を表示することと、複数の光源から検出光を発光して被験者の少なくとも一方の眼球111に照射することと、検出光が照射された眼球111の画像を撮像することと、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出することと、瞳孔中心の位置と角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出することと、眼球111の画像における検出光の角膜反射像113の形状が基準形状に含まれるか否かに基づいて、複数の光源のうち検出光を発光する光源を切り替えることとを含む。 The gaze detection method according to this embodiment also includes displaying an image on the display unit 101, emitting detection light from multiple light sources and irradiating it onto at least one eyeball 111 of the subject, capturing an image of the eyeball 111 irradiated with the detection light, detecting from the captured image the position of the pupil center indicating the center of the pupil of the eyeball 111 irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex, calculating the position of the subject's point of gaze based on the position of the pupil center and the position of the center of corneal curvature, and switching the light source that emits the detection light from among the multiple light sources based on whether the shape of the corneal reflex image 113 of the detection light in the image of the eyeball 111 is included in a reference shape.

また、本実施形態に係る視線検出プログラムは、表示部101に画像を表示する処理と、複数の光源から検出光を発光して被験者の少なくとも一方の眼球111に照射する処理と、検出光が照射された眼球111の画像を撮像する処理と、撮像された画像から、検出光が照射された眼球111の瞳孔の中心を示す瞳孔中心の位置と角膜反射の中心を示す角膜反射中心の位置とを検出する処理と、瞳孔中心の位置と角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出する処理と、眼球111の画像における検出光の角膜反射像113の形状が基準形状に含まれるか否かに基づいて、複数の光源のうち検出光を発光する光源を切り替える処理とをコンピュータに実行させる。 In addition, the gaze detection program according to this embodiment causes the computer to execute the following processes: displaying an image on the display unit 101; emitting detection light from multiple light sources and irradiating it onto at least one eyeball 111 of the subject; capturing an image of the eyeball 111 irradiated with the detection light; detecting, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball 111 irradiated with the detection light and the position of the corneal reflex center indicating the center of the corneal reflex; calculating the position of the subject's gaze point based on the position of the pupil center and the position of the center of corneal curvature; and switching the light source that emits the detection light from among the multiple light sources based on whether the shape of the corneal reflex image 113 of the detection light in the image of the eyeball 111 is included in the reference shape.

本実施形態に係る構成によれば、眼球111の画像における検出光の角膜反射像113の形状が基準形状に含まれるか否かに基づいて、複数の光源のうち検出光を発光する光源を切り替えることができるため、被験者の眼球に照射される検出光の反射像が角膜の外側にはみ出すことを抑制できる。これにより、視線の検出精度の低下を抑制できる。 With the configuration of this embodiment, the light source that emits the detection light can be switched from among multiple light sources based on whether the shape of the corneal reflection image 113 of the detection light in the image of the eyeball 111 is included in the reference shape, thereby preventing the reflection image of the detection light irradiated onto the subject's eyeball from extending outside the cornea. This prevents a decrease in the accuracy of gaze detection.

本実施形態に係る視線検出装置100において、基準形状は、扁平率が閾値未満の1つの楕円形状であり、光源制御部22は、角膜反射像113の形状が基準形状に含まれないと判定した場合には、検出光を発光する光源を切り替える。この構成によれば、角膜反射像113の形状が扁平率閾値未満の1つの楕円形状の範囲に含まれないと判定される場合には検出光を発光する光源が切り替わるため、検出光の角膜反射像113を被験者の角膜内に配置することができる。 In the gaze detection device 100 according to this embodiment, the reference shape is a single ellipse with a flattening ratio less than a threshold value, and the light source control unit 22 switches the light source that emits the detection light when it determines that the shape of the corneal reflection image 113 is not included in the reference shape. With this configuration, the light source that emits the detection light is switched when it is determined that the shape of the corneal reflection image 113 is not included in the range of a single ellipse with a flattening ratio less than the threshold value, so that the corneal reflection image 113 of the detection light can be positioned within the cornea of the subject.

本実施形態に係る視線検出装置100において、複数の光源は、表示部101の下方に設置された第1光源103A及び第2光源103Bと、表示部101の上方に設置された第3光源103C及び第4光源103Dとを含み、光源制御部22は、検出光を発光する光源を下部光源と上部光源との間で切り替える。この構成によれば、検出光の反射像を被験者の角膜内に確実に配置することができる。 In the gaze detection device 100 according to this embodiment, the multiple light sources include a first light source 103A and a second light source 103B installed below the display unit 101, and a third light source 103C and a fourth light source 103D installed above the display unit 101, and the light source control unit 22 switches the light source that emits the detection light between the lower light source and the upper light source. This configuration ensures that the reflected image of the detection light is positioned within the subject's cornea.

以上、本発明の実施形態を説明したが、これら実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。 Although the embodiments of the present invention have been described above, the embodiments are not limited to the content of these embodiments. Furthermore, the components described above include those that would be easily imagined by a person skilled in the art, those that are substantially the same, and those that are within the scope of what is known as equivalents. Furthermore, the components described above can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the components can be made without departing from the spirit of the embodiments described above.

例えば、上記実施形態では、複数の光源として、表示部101の下部に配置された下部光源(第1光源103A、第2光源103B)と、表示部101の上部に配置された上部光源(第3光源103C、第4光源103D)とが設けられた構成を例に挙げて説明したが、これに限定されない。例えば、下部光源及び上部光源に加えて又はこれらの光源の少なくとも一方に代えて、表示部101の左右の側部に光源が配置された構成であってもよい。 For example, in the above embodiment, a configuration was described in which the multiple light sources include lower light sources (first light source 103A, second light source 103B) arranged below the display unit 101 and upper light sources (third light source 103C, fourth light source 103D) arranged above the display unit 101, but this is not limiting. For example, in addition to the lower light sources and upper light sources, or instead of at least one of these light sources, light sources may be arranged on the left and right sides of the display unit 101.

また、上記実施形態では、上部光源として、2つの光源(第3光源103C、第4光源103D)が設けられた構成を例に挙げて説明したが、これに限定されない。例えば、上部光源として、1つ光源が設けられた構成であってもよい。 In addition, in the above embodiment, a configuration in which two light sources (third light source 103C and fourth light source 103D) are provided as upper light sources has been described as an example, but this is not limited to this. For example, a configuration in which one light source is provided as the upper light source may also be used.

また、上記実施形態では、表示部101の下部に第1カメラ102A及び第2カメラ102Bが配置された構成を例に挙げて説明したが、これに限定されない。第1カメラ102A及び第2カメラ102Bは、表示部101の上部又は側部に配置されてもよい。 In addition, in the above embodiment, a configuration in which the first camera 102A and the second camera 102B are arranged below the display unit 101 has been described as an example, but this is not limiting. The first camera 102A and the second camera 102B may also be arranged above or to the side of the display unit 101.

また、上記実施形態では、光源制御部22が、下部光源(第1光源103A、第2光源103B)及び上部光源(第3光源103C、第4光源103D)の一方から検出光を発光させる構成を例に挙げて説明した。これに加えて、光源制御部22は、下部光源及び上部光源の両方から順に検出光を発光させ、眼球111の画像データにおける瞳孔中心と角膜反射中心の距離をそれぞれ算出してもよい。この場合、注視点検出部26は、下部光源及び上部光源のうち算出された距離がが小さくなる方の光源から検出光が発光された場合の画像データを用いて注視点の検出を行うようにしてもよい。また、光源制御部22は、下部光源及び上部光源の両方から順に検出光を発光させ、眼球111の画像データにおける角膜反射像の形状をそれぞれ算出してもよい。この場合、注視点検出部26は、下部光源及び上部光源のうち算出された角膜反射像の形状が基準形状に最も近い方の光源から検出光が発光された場合の画像データを用いて注視点の検出を行うようにしてもよい。 In the above embodiment, the light source control unit 22 emits detection light from either the lower light source (first light source 103A, second light source 103B) or the upper light source (third light source 103C, fourth light source 103D). In addition, the light source control unit 22 may emit detection light from both the lower light source and the upper light source in sequence, and calculate the distance between the pupil center and the corneal reflex center in the image data of the eyeball 111. In this case, the gaze point detection unit 26 may detect the gaze point using image data when detection light is emitted from either the lower light source or the upper light source, whichever light source produces the shorter calculated distance. Furthermore, the light source control unit 22 may emit detection light from both the lower light source and the upper light source in sequence, and calculate the shape of the corneal reflex image in the image data of the eyeball 111. In this case, the gaze point detection unit 26 may detect the gaze point using image data when detection light is emitted from either the lower light source or the upper light source, whichever light source produces the calculated corneal reflex image shape closest to the reference shape.

本開示は、SDGsの「すべての人に健康と福祉を」の実現に貢献し、ヘルスケア製品・サービスによる価値創出に寄与する事項を含む。 This disclosure includes matters that contribute to the realization of the SDG's goal of "Good health and well-being for all" and contribute to value creation through healthcare products and services.

DX,DY…対象距離、Q…基準形状、Ra,Rb,127…距離、20…コンピュータシステム、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、21…表示制御部、22…光源制御部、23…画像データ取得部、24…位置検出部、25…曲率中心算出部、26…注視点検出部、27…記憶部、28…入出力制御部、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、100…視線検出装置、101…表示部、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、102C,103C…第3光源、103…照明装置、103A…第1光源、103B…第2光源、103D…第4光源、103V…仮想光源、109…角膜曲率半径、110…角膜曲率中心、111…眼球、111a…角膜、111b…強膜、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,173,178…直線、130…目標位置、141…第1直線、142…第2直線、166…交点、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部
DX, DY...object distance, Q...reference shape, Ra, Rb, 127...distance, 20...computer system, 20A...arithmetic processing device, 20B...storage device, 20C...computer program, 21...display control unit, 22...light source control unit, 23...image data acquisition unit, 24...position detection unit, 25...center of curvature calculation unit, 26...gazing point detection unit, 27...storage unit, 28...input/output control unit, 30...input/output interface device, 40...drive circuit, 50...output device, 60...input device, 100...gaze detection device, 101...display unit, 101S...display screen, 102...stereo camera device, 102A...first camera, 102B...second camera, 10 2C, 103C...third light source, 103...illumination device, 103A...first light source, 103B...second light source, 103D...fourth light source, 103V...virtual light source, 109...corneal curvature radius, 110...corneal curvature center, 111...eyeball, 111a...cornea, 111b...sclera, 112...pupil, 112C...pupil center, 113...corneal reflection image, 113C, 121, 122, 124...corneal reflection center, 123, 173, 178...straight line, 130...target position, 141...first straight line, 142...second straight line, 166...intersection, 302...input/output unit, 402...display device driver, 404A...first camera input/output unit, 404B...second camera input/output unit, 406...light source driver

Claims (5)

画像を表示する表示部と、
検出光を発光して被験者の少なくとも一方の眼球に照射する複数の光源と、
前記検出光が照射された眼球の画像を撮像する撮像部と、
撮像された前記画像から、前記検出光が照射された眼球の瞳孔の中心を示す瞳孔中心の
位置と角膜反射の中心を示す角膜反射中心の位置とを検出する位置検出部と、
前記瞳孔中心の位置と前記検出光が照射された眼球の角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出する注視点検出部と、
前記瞳孔中心と前記角膜反射中心との間の対象距離に基づいて、複数の前記光源のうち
前記検出光を発光する前記光源を切り替える光源制御部と
を備える視線検出装置。
a display unit for displaying an image;
a plurality of light sources that emit detection light and irradiate it onto at least one eyeball of the subject;
an imaging unit that captures an image of the eyeball irradiated with the detection light;
a position detection unit that detects, from the captured image, the position of a pupil center indicating the center of the pupil of the eyeball irradiated with the detection light and the position of a corneal reflection center indicating the center of the corneal reflection;
a gaze point detection unit that calculates the position of the gaze point of the subject based on the position of the pupil center and the position of the corneal curvature center of the eyeball irradiated with the detection light ;
a light source control unit that switches the light source that emits the detection light among the plurality of light sources based on a target distance between the pupil center and the corneal reflex center.
複数の前記光源は、前記表示部の下方に設置された下部光源と、前記表示部の上方に設置された上部光源とを含み、
前記対象距離は、上下方向の距離であり、
前記光源制御部は、前記検出光を発光する前記光源を前記下部光源と前記上部光源との間で切り替える
請求項1に記載の視線検出装置。
the plurality of light sources include a lower light source disposed below the display unit and an upper light source disposed above the display unit;
the target distance is a distance in the vertical direction,
The gaze detection device according to claim 1 , wherein the light source control unit switches the light source that emits the detection light between the lower light source and the upper light source.
前記光源制御部は、前記眼球の画像における前記検出光の反射像の形状が基準形状に含まれるか否かに基づいて、前記検出光を発光する前記光源を切り替える
請求項1又は請求項2に記載の視線検出装置。
The gaze detection device according to claim 1 , wherein the light source control unit switches the light source that emits the detection light based on whether a shape of a reflection image of the detection light in the image of the eyeball is included in a reference shape.
表示部に画像を表示することと、
複数の光源から検出光を発光して被験者の少なくとも一方の眼球に照射することと、
前記検出光が照射された眼球の画像を撮像することと、
撮像された前記画像から、前記検出光が照射された眼球の瞳孔の中心を示す瞳孔中心の
位置と角膜反射の中心を示す角膜反射中心の位置とを検出することと、
前記瞳孔中心の位置と前記検出光が照射された眼球の角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出することと、
前記瞳孔中心と前記角膜反射中心との間の対象距離に基づいて、複数の前記光源のうち
前記検出光を発光する前記光源を切り替えることと
を含む視線検出方法。
Displaying an image on a display unit;
emitting detection light from a plurality of light sources and irradiating the light onto at least one eyeball of the subject;
capturing an image of the eyeball illuminated with the detection light;
Detecting, from the captured image, a position of a pupil center indicating the center of a pupil of the eyeball irradiated with the detection light and a position of a corneal reflection center indicating the center of a corneal reflection;
calculating a position of the gaze point of the subject based on the position of the pupil center and the position of the corneal curvature center of the eyeball irradiated with the detection light ;
and switching the light source that emits the detection light from among the plurality of light sources based on an object distance between the pupil center and the corneal reflex center.
表示部に画像を表示する処理と、
複数の光源から検出光を発光して被験者の少なくとも一方の眼球に照射する処理と、
前記検出光が照射された眼球の画像を撮像する処理と、
撮像された前記画像から、前記検出光が照射された眼球の瞳孔の中心を示す瞳孔中心の
位置と角膜反射の中心を示す角膜反射中心の位置とを検出する処理と、
前記瞳孔中心の位置と前記検出光が照射された眼球の角膜曲率中心の位置とに基づいて被験者の注視点の位置を算出する処理と、
前記瞳孔中心と前記角膜反射中心との間の対象距離に基づいて、複数の前記光源のうち
前記検出光を発光する前記光源を切り替える処理と
をコンピュータに実行させる視線検出プログラム。
A process of displaying an image on a display unit;
a process of emitting detection light from a plurality of light sources and irradiating it onto at least one eyeball of the subject;
capturing an image of the eyeball illuminated with the detection light;
A process of detecting, from the captured image, the position of the pupil center indicating the center of the pupil of the eyeball irradiated with the detection light and the position of the corneal reflection center indicating the center of the corneal reflection;
a process of calculating the position of the gaze point of the subject based on the position of the pupil center and the position of the corneal curvature center of the eyeball irradiated with the detection light ;
and a process of switching the light source that emits the detection light among the plurality of light sources based on a target distance between the pupil center and the corneal reflex center.
JP2021124572A 2021-07-29 2021-07-29 Gaze detection device, gaze detection method, and gaze detection program Active JP7722016B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021124572A JP7722016B2 (en) 2021-07-29 2021-07-29 Gaze detection device, gaze detection method, and gaze detection program
PCT/JP2022/025367 WO2023008023A1 (en) 2021-07-29 2022-06-24 Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program
US18/403,782 US12374160B2 (en) 2021-07-29 2024-01-04 Line-of-sight detection device, line-of-sight detection method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021124572A JP7722016B2 (en) 2021-07-29 2021-07-29 Gaze detection device, gaze detection method, and gaze detection program

Publications (2)

Publication Number Publication Date
JP2023019659A JP2023019659A (en) 2023-02-09
JP7722016B2 true JP7722016B2 (en) 2025-08-13

Family

ID=85160186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021124572A Active JP7722016B2 (en) 2021-07-29 2021-07-29 Gaze detection device, gaze detection method, and gaze detection program

Country Status (1)

Country Link
JP (1) JP7722016B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211891A (en) 2016-05-27 2017-11-30 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
WO2017217026A1 (en) 2016-06-16 2017-12-21 アルプス電気株式会社 Cornea center detection device and gaze detection device
JP2018512665A (en) 2015-03-23 2018-05-17 コントローラッド システムズ、インコーポレイテッドControlrad Systems,Inc. Target tracking system
JP2019025195A (en) 2017-08-02 2019-02-21 株式会社Jvcケンウッド Gaze detection apparatus and gaze detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018512665A (en) 2015-03-23 2018-05-17 コントローラッド システムズ、インコーポレイテッドControlrad Systems,Inc. Target tracking system
JP2017211891A (en) 2016-05-27 2017-11-30 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
WO2017217026A1 (en) 2016-06-16 2017-12-21 アルプス電気株式会社 Cornea center detection device and gaze detection device
JP2019025195A (en) 2017-08-02 2019-02-21 株式会社Jvcケンウッド Gaze detection apparatus and gaze detection method

Also Published As

Publication number Publication date
JP2023019659A (en) 2023-02-09

Similar Documents

Publication Publication Date Title
CN108027977B (en) Sight line detection device and sight line detection method
US10896324B2 (en) Line-of-sight detection device and method for detecting line of sight
US20150238087A1 (en) Biological information measurement device and input device utilizing same
US20200019241A1 (en) Eye tracking device and eye tracking method
JP2020106772A (en) Display device, display method, and program
JP7593008B2 (en) Distance calculation device, distance calculation method, and distance calculation program
WO2019167626A1 (en) Visual function detection device, visual function detection method, and program
JP2019146915A (en) Evaluation device, evaluation method, and evaluation program
JP6958507B2 (en) Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program
JP7722016B2 (en) Gaze detection device, gaze detection method, and gaze detection program
JP7725918B2 (en) Gaze detection device, gaze detection method, and gaze detection program
JP7556213B2 (en) Gaze detection device, gaze detection method, and gaze detection program
WO2019167899A1 (en) Visual function detection device, visual function detection method, and program
JP7063045B2 (en) Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program
WO2023008023A1 (en) Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
US10996747B2 (en) Line-of-sight detection device, line-of-sight detection method, and medium
US11241152B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
WO2022038814A1 (en) Corneal curvature radius calculation device, line-of-sight detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program
JP7043889B2 (en) Visual function detection device, visual function detection method and program
JP7043890B2 (en) Visual function detection device, visual function detection method and program
WO2022044395A1 (en) Sight line detection device, sight line detection method, and sight line detection program
US12507888B2 (en) Eye-gaze detecting device, eye-gaze detecting method, and computer-readable storage medium
US20250298128A1 (en) Gaze detection device, gaze detection method, and storage medium
JP2025147390A (en) Corneal curvature radius calculation device, gaze detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250714

R150 Certificate of patent or registration of utility model

Ref document number: 7722016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150