JP2018197974A - Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method - Google Patents

Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method Download PDF

Info

Publication number
JP2018197974A
JP2018197974A JP2017102612A JP2017102612A JP2018197974A JP 2018197974 A JP2018197974 A JP 2018197974A JP 2017102612 A JP2017102612 A JP 2017102612A JP 2017102612 A JP2017102612 A JP 2017102612A JP 2018197974 A JP2018197974 A JP 2018197974A
Authority
JP
Japan
Prior art keywords
line
illumination light
user
sight direction
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017102612A
Other languages
Japanese (ja)
Other versions
JP6870474B2 (en
Inventor
英樹 冨森
Hideki Tomimori
英樹 冨森
中山 收文
Osafumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017102612A priority Critical patent/JP6870474B2/en
Publication of JP2018197974A publication Critical patent/JP2018197974A/en
Application granted granted Critical
Publication of JP6870474B2 publication Critical patent/JP6870474B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a line-of-site detection computer program capable of improving accuracy of detection of a line-of-site direction.SOLUTION: A line-of-sight detection computer program comprises instructions to cause a computer: to detect, from an image, a pupil region in which a pupil of an eye is photographed and a corneal reflection image of an illuminating light source which is lit among the plurality of illumination light sources, wherein the image is generated by an imaging unit photographing a user's eye; to detect a user's line-of-sight direction based on the pupil region and the cornea reflection image; to predict the user's line-of-sight direction for the next time the imaging unit photographs based on the user's line-of-sight direction detected from each of the at least two images which are respectively generated at a different timing; and to lit at least one illumination light source corresponding to a detectable range including the predicted user line-of-sight direction among the plurality of illumination light sources, the next time the imaging unit photographs.SELECTED DRAWING: Figure 10

Description

本発明は、例えば、人の眼を撮影して得られた画像に基づいて人の視線方向を検出する視線検出用コンピュータプログラム、視線検出装置及び視線検出方法に関する。   The present invention relates to a computer program for eye gaze detection, a gaze detection device, and a gaze detection method for detecting a gaze direction of a person based on, for example, an image obtained by photographing a human eye.

人の視線方向または人が注視している位置を追跡することで、その人が興味を有しているものに関する情報を得たり、あるいは、その注視している位置に関連する操作を自動的に実行することが検討されている。なお、以下では、便宜上、人が注視している位置を単に注視位置と呼ぶ。   By tracking a person's line of sight or the position where the person is gazing, you can get information about what the person is interested in, or automatically perform operations related to the position you are gazing at Is being considered to do. Hereinafter, for the sake of convenience, a position where a person is gazing is simply referred to as a gazing position.

人の注視位置、あるいは、視線方向は、その人の瞳孔の向きと密接に関連している。そこで、人の眼を撮影して得られた画像から瞳孔を検出し、その瞳孔と基準点との位置関係により、その人の視線方向または注視位置を特定する技術が知られている。なお、基準点としては、例えば、光源の角膜反射像(以下、プルキンエ像と呼ぶ)が用いられる。プルキンエ像の位置は、人の顔の向き及び瞳孔の向きによらず、ほぼ一定となるので、プルキンエ像を基準点として用いることで、比較的高精度で視線方向を検出することが可能となる。   A person's gaze position or line-of-sight direction is closely related to the direction of the person's pupil. Therefore, a technique is known in which a pupil is detected from an image obtained by photographing a human eye, and the gaze direction or gaze position of the person is specified based on the positional relationship between the pupil and a reference point. As the reference point, for example, a cornea reflection image of a light source (hereinafter referred to as a Purkinje image) is used. Since the position of the Purkinje image is almost constant regardless of the orientation of the human face and the orientation of the pupil, using the Purkinje image as a reference point makes it possible to detect the line-of-sight direction with relatively high accuracy. .

しかし、画像上にプルキンエ像が写るためには、人の眼を撮影するカメラから見て、光源からの光を反射する位置が角膜上に位置していることが要求される。そのため、画像上にプルキンエ像が写るためには、光源とカメラと眼の相対的な位置関係、及び、視線方向に関する制約がある。そこで、複数の光源のうち、点灯する光源を制御することで、視線方向の検出精度を向上する技術が提案されている(例えば、特許文献1〜3を参照)。   However, in order for the Purkinje image to appear on the image, it is required that the position where the light from the light source is reflected is located on the cornea as viewed from the camera that captures the human eye. Therefore, in order for the Purkinje image to appear on the image, there are restrictions on the relative positional relationship between the light source, the camera, and the eye, and the line-of-sight direction. Therefore, a technique for improving the detection accuracy of the line-of-sight direction by controlling a light source to be lit among a plurality of light sources has been proposed (see, for example, Patent Documents 1 to 3).

特開平6−138367号公報JP-A-6-138367 特開2005−296383号公報JP 2005-296383 A 特開2014−183392号公報JP 2014-183392 A

特許文献1〜3に開示された技術では、例えば、顔の向き、光源を順次点灯させたときの視線方向の検出精度の良否の評価、あるいは、瞳孔とプルキンエ像間の位置ずれに応じて、点灯する光源が制御される。   In the techniques disclosed in Patent Documents 1 to 3, for example, according to the evaluation of the quality of the detection accuracy of the gaze direction when sequentially turning on the face direction, the light source, or the positional deviation between the pupil and the Purkinje image, The light source to be lit is controlled.

しかし、顔の向きと視線方向とは、必ずしも一致しないので、顔の向きに基づいて点灯する光源を制御しても、プルキンエ像が観察可能な適切な光源が点灯されるとは限らない。また、光源を順次点灯させる場合、適切な光源が選択されるまでに要する時間が長くなり、その結果として、視線方向が検出可能となるまでに要する時間が長くなってしまう。そして光源が順次点灯している間に視線方向が移動してしまうと、移動前の視線方向に対して最適な光源が点灯され、現在の視線方向に対して適切な光源が点灯されるとは限らない。また、瞳孔とプルキンエ像間の位置ずれに応じて、点灯する光源が制御される場合も、視線方向が移動すると、移動前の視線方向に対して最適な光源が点灯され、現在の視線方向に対して適切な光源が点灯されるとは限らない。その結果として、上記の技術では、プルキンエ像が画像上に写らなくなり、視線方向の検出精度が不十分となることがある。   However, since the face direction and the line-of-sight direction do not necessarily match, controlling a light source that is turned on based on the face direction does not necessarily turn on an appropriate light source that allows the Purkinje image to be observed. In addition, when the light sources are sequentially turned on, the time required until an appropriate light source is selected is increased, and as a result, the time required until the gaze direction can be detected is increased. And if the line-of-sight direction moves while the light sources are turned on sequentially, the optimal light source is turned on for the line-of-sight direction before the movement, and the appropriate light source is turned on for the current line-of-sight direction Not exclusively. In addition, even when the light source to be turned on is controlled according to the positional deviation between the pupil and the Purkinje image, when the line-of-sight direction moves, the optimal light source is turned on with respect to the line-of-sight direction before the movement, and the current line-of-sight direction is On the other hand, an appropriate light source is not always turned on. As a result, with the above technique, the Purkinje image may not appear on the image, and the detection accuracy in the line-of-sight direction may be insufficient.

一つの側面では、本発明は、視線方向の検出精度を向上可能な視線検出用コンピュータプログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide a computer program for eye gaze detection that can improve the accuracy of gaze direction detection.

一つの実施形態によれば、視線検出用コンピュータプログラムが提供される。この視線検出用コンピュータプログラムは、撮像部がユーザの眼を撮影することで生成された画像から、眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯した照明光源の角膜反射像を検出し、瞳孔領域及び角膜反射像に基づいてユーザの視線方向を検出し、生成されたタイミングが異なる少なくとも2枚の画像のそれぞれから検出されたユーザの視線方向に基づいて、撮像部の次回撮影時におけるユーザの視線方向を予測し、複数の照明光源のそれぞれについて、その照明光源と撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、複数の照明光源のうち、予測されたユーザの視線方向が含まれる検出可能範囲に対応する照明光源の少なくとも一つを撮像部の次回撮影時に点灯させる、ことをコンピュータに実行させるための命令を含む。   According to one embodiment, a computer program for eye gaze detection is provided. The computer program for eye-gaze detection includes a pupil region in which an eye pupil is captured from an image generated by an imaging unit photographing a user's eye, and a cornea of a lighting illumination light source among a plurality of illumination light sources An image pickup unit that detects a reflection image, detects a user's line-of-sight direction based on the pupil region and the cornea reflection image, and based on the user's line-of-sight direction detected from each of at least two images generated at different timings Predicting the user's line-of-sight direction at the next shooting, and for each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit. And causing the computer to turn on at least one of the illumination light sources corresponding to the detectable range including the predicted user's line-of-sight direction at the next shooting of the imaging unit. Including instructions for causing a row.

視線方向の検出精度を向上できる。   The detection accuracy of the gaze direction can be improved.

視線検出装置の一実施形態であるデジタルサイネージシステムのハードウェア構成図である。It is a hardware block diagram of the digital signage system which is one Embodiment of a visual line detection apparatus. 複数の照明光源及び赤外カメラの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of a some illumination light source and an infrared camera. プロセッサの視線検出処理に関する機能ブロック図である。It is a functional block diagram regarding the gaze detection process of a processor. 画像上で検出されるプルキンエ像が一つである場合の、点灯光源及び赤外カメラと、ユーザの視線方向との関係の一例を示す図である。It is a figure which shows an example of the relationship between a lighting light source and an infrared camera, and a user's eyes | visual_axis direction in case the one Purkinje image detected on an image is one. 注視位置テーブルの一例を示す図である。It is a figure which shows an example of a gaze position table. 点灯モデルの一例を示す図である。It is a figure which shows an example of a lighting model. 視線方向の予測結果が利用可能となるまでにおける、点灯する照明光源を選択する処理の原理を説明する図である。It is a figure explaining the principle of the process which selects the illumination light source which turns on until the prediction result of a gaze direction becomes available. 視線方向の予測結果が利用可能となった以降での、点灯する照明光源を選択する処理の原理を説明する図である。It is a figure explaining the principle of the process which selects the illumination light source to light after the prediction result of a gaze direction becomes available. 視線方向の予測結果が照明光源の点灯制御に利用可能となるまでの、視線検出処理の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a gaze detection process until the prediction result of a gaze direction becomes usable for lighting control of an illumination light source. 視線方向の予測結果が照明光源の点灯制御に利用可能となった以降の、視線検出処理の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a gaze detection process after the prediction result of a gaze direction becomes available for lighting control of an illumination light source.

以下、図を参照しつつ、視線検出装置について説明する。
この視線検出装置は、複数の照明光源のうちの何れかにて照明されたユーザの眼をカメラにより撮影して画像を生成し、その画像上で眼の瞳孔及びプルキンエ像を検出し、検出された瞳孔及びプルキンエ像に基づいて、ユーザの視線方向を検出する。この視線検出装置は、それまでに得られた画像から検出された視線方向に基づいて次回撮影時の視線方向を予測する。そしてこの視線検出装置は、予測された視線方向が視線方向を検出可能な視線方向の範囲、すなわち、プルキンエ像が観察可能な視線方向の範囲に含まれるように、複数の照明光源のなかから点灯させる照明光源を選択する。
Hereinafter, the line-of-sight detection device will be described with reference to the drawings.
This line-of-sight detection device generates an image by photographing a user's eye illuminated by any of a plurality of illumination light sources with a camera, and detects and detects an eye pupil and Purkinje image on the image. Based on the pupil and Purkinje image, the user's line-of-sight direction is detected. This line-of-sight detection device predicts the line-of-sight direction at the time of the next shooting based on the line-of-sight direction detected from the images obtained so far. The line-of-sight detection device is lit from a plurality of illumination light sources so that the predicted line-of-sight direction is included in the range of the line-of-sight direction in which the line-of-sight direction can be detected, that is, the range of the line-of-sight direction in which the Purkinje image can be observed. Select the illumination source to be activated.

なお、以下に説明する実施形態では、視線検出装置は、デジタルサイネージシステムに実装され、そして視線検出装置は、デジタルサイネージシステムのユーザである人の視線方向及び注視位置を追跡する。しかしこの視線検出装置は、視線方向を追跡し、その追跡結果を利用する様々な装置に利用可能である。   In the embodiment described below, the line-of-sight detection apparatus is mounted on a digital signage system, and the line-of-sight detection apparatus tracks the line-of-sight direction and gaze position of a person who is a user of the digital signage system. However, this line-of-sight detection device can be used in various devices that track the direction of the line of sight and use the tracking result.

図1は、視線検出装置の一実施形態であるデジタルサイネージシステムのハードウェア構成図である。デジタルサイネージシステム1は、表示装置2と、複数の照明光源3−1〜3−n(ただし、nは3以上の整数)と、赤外カメラ4と、入力装置5と、記憶媒体アクセス装置6と、メモリ7と、プロセッサ8とを有する。さらにデジタルサイネージシステム1は、デジタルサイネージシステム1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。   FIG. 1 is a hardware configuration diagram of a digital signage system which is an embodiment of a visual line detection device. The digital signage system 1 includes a display device 2, a plurality of illumination light sources 3-1 to 3-n (where n is an integer of 3 or more), an infrared camera 4, an input device 5, and a storage medium access device 6. A memory 7 and a processor 8. Furthermore, the digital signage system 1 may have a communication interface circuit (not shown) for connecting the digital signage system 1 to other devices.

表示装置2は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイを有する。そして表示装置2は、例えば、様々なテキスト、アイコン、静止画像または動画像をプロセッサ8からの映像信号に応じて表示する。   The display device 2 includes, for example, a liquid crystal display or an organic electroluminescence display. The display device 2 displays, for example, various texts, icons, still images, or moving images according to the video signal from the processor 8.

複数の照明光源3−1〜3−nのそれぞれは、赤外光を発光する光源、例えば、少なくとも一つの赤外発光ダイオードと、プロセッサ8からの制御信号に応じて、赤外発光ダイオードに電源(図示せず)からの電力を供給する駆動回路(図示せず)とを有する。照明光源3−1〜3−nのそれぞれは、赤外カメラ4の撮影方向を照明可能なように、赤外カメラ4の撮影方向へ照明光源3−1〜3−nのそれぞれの発光面が向くように取り付けられている。そして照明光源3−1〜3−nのそれぞれは、プロセッサ8からその照明光源を点灯させる制御信号を受信してから、その照明光源を消灯させる制御信号を受信するまでの間、照明光を発する。   Each of the plurality of illumination light sources 3-1 to 3-n is a light source that emits infrared light, for example, at least one infrared light emitting diode and a power supply to the infrared light emitting diode according to a control signal from the processor 8. And a drive circuit (not shown) for supplying power from (not shown). Each of the illumination light sources 3-1 to 3-n has a light emitting surface of each of the illumination light sources 3-1 to 3-n in the imaging direction of the infrared camera 4 so that the imaging direction of the infrared camera 4 can be illuminated. It is attached to face. Each of the illumination light sources 3-1 to 3-n emits illumination light after receiving a control signal for turning on the illumination light source from the processor 8 until receiving a control signal for turning off the illumination light source. .

なお、本実施形態では、照明光源の数は、同時に点灯する照明光源の数(本実施形態では、2)よりも多ければよく、例えば、照明光源の数は、6個とすることができる(すなわち、n=6)。また、照明光源3−1〜3−nのそれぞれは、検出可能なユーザの視線方向の範囲が互いに異なるように、互いに異なる位置に配置される。なお、検出可能なユーザの視線方向の範囲を、以下では、単に検出可能範囲と呼ぶ。   In the present embodiment, the number of illumination light sources only needs to be larger than the number of illumination light sources that are simultaneously turned on (2 in the present embodiment). For example, the number of illumination light sources can be six ( That is, n = 6). In addition, each of the illumination light sources 3-1 to 3-n is arranged at a different position so that the range of the user's gaze direction that can be detected is different from each other. In addition, the range of the user's gaze direction that can be detected is hereinafter simply referred to as a detectable range.

赤外カメラ4は、撮像部の一例であり、ユーザの少なくとも一方の眼が写った画像を生成する。そのために、赤外カメラ4は、照明光源3−1〜3−nが発する赤外光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上に被写体の像を結像する撮像光学系を有する。赤外カメラ4は、虹彩による反射像及び照明光源3−1〜3−n以外の光源からの光のプルキンエ像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。また、撮像光学系は、単焦点の光学系でもよく、あるいは、可変焦点光学系であってもよい。赤外カメラ4は、視線検出処理の実行中、所定のフレームレートで撮影して画像を生成する。なお、赤外カメラ4は、この画像上でデジタルサイネージシステム1を利用するユーザの瞳に写った照明光源3−1〜3−nのプルキンエ像及び瞳孔が識別可能な解像度を有する。そして赤外カメラ4は、画像を生成する度に、その画像をプロセッサ8へ渡す。なお、以下の説明において、「画像」とは、特に説明が無い限り、赤外カメラ4により生成され、かつ、ユーザの眼が写った画像を表す。   The infrared camera 4 is an example of an imaging unit, and generates an image in which at least one eye of the user is captured. Therefore, the infrared camera 4 includes an image sensor having a solid-state imaging device arranged in a two-dimensional shape having sensitivity to infrared light emitted from the illumination light sources 3-1 to 3-n, and an object on the image sensor. An imaging optical system that forms an image is included. In order to suppress detection of the reflected image by the iris and the Purkinje image of light from a light source other than the illumination light sources 3-1 to 3-n, the infrared camera 4 is between the image sensor and the imaging optical system. You may further have a visible light cut filter. The imaging optical system may be a single focus optical system or a variable focus optical system. The infrared camera 4 shoots at a predetermined frame rate and generates an image during execution of the line-of-sight detection process. In addition, the infrared camera 4 has the resolution which can identify the Purkinje image and pupil of the illumination light sources 3-1 to 3-n reflected on the pupil of the user who uses the digital signage system 1 on this image. The infrared camera 4 passes the image to the processor 8 every time it generates an image. In the following description, “image” represents an image generated by the infrared camera 4 and showing the user's eyes unless otherwise specified.

また、本実施形態では、照明光源3−1〜3−n及び赤外カメラ4は、同一の筐体10に取り付けられる。なお、照明光源3−1〜3−nと赤外カメラ4とは、別個に設けられてもよい。   In the present embodiment, the illumination light sources 3-1 to 3-n and the infrared camera 4 are attached to the same housing 10. The illumination light sources 3-1 to 3-n and the infrared camera 4 may be provided separately.

図2は、照明光源3−1〜3−n及び赤外カメラ4の配置の一例を示す図である。この例では、照明光源の数は6個であり、表示装置2の近傍に配置された商品棚11に、照明光源3−1〜3−6及び赤外カメラ4が取り付けられた筐体10が取り付けられている。そして照明光源3−1〜3−6及び赤外カメラ4が商品棚11上に載置された商品を見るユーザ200の顔へ向けられるように、筐体10は、商品棚11のユーザ200に対向する側の面に配置される。また、照明光源3−1〜3−6は、ユーザ200から見て左から順に、ユーザ200の両眼の並び方向に沿って、すなわち、水平方向に沿って、一列に並べて配置される。そして、赤外カメラ4は、照明光源3−3と照明光源3−4の間に、配置され、ユーザ200の少なくとも一方の眼を含む、ユーザ200の顔全体あるいは顔の一部を撮影する。
なお、照明光源3−1〜3−n及び赤外カメラ4の配置はこの例に限られず、例えば、照明光源3−1〜3−nは、垂直方向に対しても互いに異なる位置に配置されてもよい。さらに、照明光源3−1〜3−nの垂直方向の位置と赤外カメラ4の垂直方向の位置とは、互いに異なっていてもよい。
FIG. 2 is a diagram illustrating an example of the arrangement of the illumination light sources 3-1 to 3-n and the infrared camera 4. In this example, the number of illumination light sources is six, and a housing 10 in which illumination light sources 3-1 to 3-6 and an infrared camera 4 are attached to a product shelf 11 arranged in the vicinity of the display device 2. It is attached. Then, the housing 10 is directed to the user 200 of the product shelf 11 so that the illumination light sources 3-1 to 3-6 and the infrared camera 4 are directed to the face of the user 200 who views the product placed on the product shelf 11. It is arranged on the surface on the opposite side. In addition, the illumination light sources 3-1 to 3-6 are arranged in a line in order from the left as viewed from the user 200, along the alignment direction of both eyes of the user 200, that is, along the horizontal direction. And the infrared camera 4 is arrange | positioned between the illumination light source 3-3 and the illumination light source 3-4, and image | photographs the user's 200 whole face or a part of face including at least one eye of the user 200. FIG.
The arrangement of the illumination light sources 3-1 to 3-n and the infrared camera 4 is not limited to this example. For example, the illumination light sources 3-1 to 3-n are arranged at different positions in the vertical direction. May be. Furthermore, the vertical position of the illumination light sources 3-1 to 3-n and the vertical position of the infrared camera 4 may be different from each other.

入力装置5は、例えば、キーボードと、マウスのようなポインティングデバイスとを有する。そして入力装置5を介してユーザにより入力された操作信号は、プロセッサ8へ渡される。   The input device 5 includes, for example, a keyboard and a pointing device such as a mouse. An operation signal input by the user via the input device 5 is passed to the processor 8.

なお、表示装置2と入力装置5とは、例えば、タッチパネルディスプレイのように一体化されていてもよい。この場合、入力装置5は、表示装置2の表示画面上に表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号をプロセッサ8へ出力する。   The display device 2 and the input device 5 may be integrated like a touch panel display, for example. In this case, when the user touches the position of the icon displayed on the display screen of the display device 2, the input device 5 generates an operation signal corresponding to the position and outputs the operation signal to the processor 8. .

記憶媒体アクセス装置6は、記憶部の一例であり、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体9にアクセスする装置である。記憶媒体アクセス装置6は、例えば、記憶媒体9に記憶された、プロセッサ8上で実行される、視線検出処理用のコンピュータプログラムを読み込み、プロセッサ8に渡す。   The storage medium access device 6 is an example of a storage unit, and is a device that accesses a storage medium 9 such as a magnetic disk, a semiconductor memory card, and an optical storage medium. The storage medium access device 6 reads a computer program for line-of-sight detection processing executed on the processor 8 and stored in the storage medium 9, for example, and passes it to the processor 8.

メモリ7は、記憶部の他の一例であり、例えば、読み書き可能な不揮発性の半導体メモリ、及び読み書き可能な揮発性の半導体メモリを有する。そしてメモリ7は、プロセッサ8上で実行される、視線検出処理用のコンピュータプログラム、各種のアプリケーションプログラム及び各種のデータを記憶する。   The memory 7 is another example of the storage unit, and includes, for example, a readable / writable nonvolatile semiconductor memory and a readable / writable volatile semiconductor memory. The memory 7 stores a computer program for line-of-sight detection processing, various application programs, and various data executed on the processor 8.

さらに、メモリ7は、ユーザの視線方向及び注視位置を検出するために利用される各種のデータを記憶する。例えば、メモリ7は、照明光源3−1〜3−n及び赤外カメラ4の実空間での位置、赤外カメラ4の焦点距離などを記憶する。また、メモリ7は、点灯モデル及び視線方向の検出履歴を記憶してもよい。なお、点灯モデルの詳細については後述する。さらに、ユーザと赤外カメラ4間の距離が予め設定された距離となることが想定される場合には、メモリ7は、その予め設定された距離を記憶してもよい。   Further, the memory 7 stores various data used for detecting the user's line-of-sight direction and gaze position. For example, the memory 7 stores the positions of the illumination light sources 3-1 to 3-n and the infrared camera 4 in real space, the focal length of the infrared camera 4, and the like. The memory 7 may store a lighting model and a detection history of the line-of-sight direction. Details of the lighting model will be described later. Furthermore, when it is assumed that the distance between the user and the infrared camera 4 is a preset distance, the memory 7 may store the preset distance.

プロセッサ8は、制御部の一例であり、例えば、少なくとも一つのCentral Processing Unit(CPU)及びその周辺回路を有する。さらに、プロセッサ8は、数値演算プロセッサまたはGraphics Processing Unit(GPU)を有していてもよい。そしてプロセッサ8は、デジタルサイネージシステム1の各部と信号線を介して接続されており、デジタルサイネージシステム1全体を制御する。例えば、プロセッサ8は、入力装置5から受け取った操作信号と実行中のアプリケーションプログラムに応じて、所定の動画像などを表示装置2に表示させる。   The processor 8 is an example of a control unit, and includes, for example, at least one Central Processing Unit (CPU) and its peripheral circuits. Further, the processor 8 may include a numerical arithmetic processor or a graphics processing unit (GPU). The processor 8 is connected to each part of the digital signage system 1 through a signal line, and controls the entire digital signage system 1. For example, the processor 8 causes the display device 2 to display a predetermined moving image or the like according to the operation signal received from the input device 5 and the application program being executed.

さらに、プロセッサ8は、画像が得られる度に、視線検出処理を実行することにより、ユーザの視線方向及び注視位置を検出する。そしてプロセッサ8は、その検出結果に応じた処理を実行する。例えば、プロセッサ8は、メモリ7に記憶された商品の位置情報を参照して、検出された注視位置に最も近い商品を特定し、特定された商品に関する情報をメモリ7から読み出して表示装置2に表示させる。   Further, the processor 8 detects the user's line-of-sight direction and gaze position by executing a line-of-sight detection process each time an image is obtained. Then, the processor 8 executes processing according to the detection result. For example, the processor 8 refers to the position information of the product stored in the memory 7, identifies the product closest to the detected gaze position, reads information about the identified product from the memory 7, and displays it on the display device 2. Display.

図3は、プロセッサ8の視線検出処理に関する機能ブロック図である。プロセッサ8は、視線検出部21と、注視位置推定部22と、予測部23と、光源制御部24とを有する。
プロセッサ8が有するこれらの各部は、プロセッサ8上で実行されるコンピュータプログラムにより実現される機能モジュールである。またプロセッサ8が有するこれらの各部は、その各部の機能を実現するプロセッサ8内の回路の一部として実装されてもよい。
FIG. 3 is a functional block diagram relating to the line-of-sight detection processing of the processor 8. The processor 8 includes a line-of-sight detection unit 21, a gaze position estimation unit 22, a prediction unit 23, and a light source control unit 24.
Each of these units included in the processor 8 is a functional module realized by a computer program executed on the processor 8. Further, each of these units included in the processor 8 may be mounted as a part of a circuit in the processor 8 that realizes the function of each unit.

本実施形態では、プロセッサ8は、視線検出処理を開始するまで、赤外カメラ4から画像が得られる度に、その画像とメモリ7に記憶されている背景画像との間で背景差分処理を実行して、対応画素間の差分絶対値が所定値以上となる画素を抽出する。そしてプロセッサ8は、抽出された画素の数が所定数以上になると、視線検出処理を開始する。
なお、デジタルサイネージシステム1は、近接センサ(図示せず)を有していてもよい。そして近接センサが、赤外カメラ4の正面に位置する物体を検知すると、プロセッサ8は、視線検出処理を開始してもよい。
In this embodiment, the processor 8 executes background difference processing between the image and the background image stored in the memory 7 every time an image is obtained from the infrared camera 4 until the line-of-sight detection processing is started. Then, a pixel whose absolute difference value between corresponding pixels is a predetermined value or more is extracted. Then, the processor 8 starts the line-of-sight detection process when the number of extracted pixels exceeds a predetermined number.
The digital signage system 1 may have a proximity sensor (not shown). When the proximity sensor detects an object located in front of the infrared camera 4, the processor 8 may start the line-of-sight detection process.

本実施形態では、視線検出処理が実行されている間、プロセッサ8は、照明光源3−1〜3−nのうちの二つを点灯させる。そしてプロセッサ8は、所定の周期、例えば、赤外カメラ4の撮影周期ごとに、予測された視線方向に基づいて、点灯させる照明光源を選択する。   In the present embodiment, the processor 8 turns on two of the illumination light sources 3-1 to 3-n while the line-of-sight detection process is being performed. Then, the processor 8 selects an illumination light source to be turned on based on the predicted line-of-sight direction for each predetermined period, for example, for each imaging period of the infrared camera 4.

視線検出部21は、視線検出処理の実行中において、画像が得られる度に、画像上でユーザの眼の瞳孔及び照明光源3−1〜3−nのうちの点灯している照明光源のプルキンエ像を検出する。そして視線検出部21は、瞳孔とプルキンエ像の位置関係に基づいて、ユーザの視線方向を検出する。なお、以下では、説明の便宜上、点灯している照明光源を、単に点灯光源と呼ぶことがある。   Each time an image is obtained during execution of the line-of-sight detection process, the line-of-sight detection unit 21 Purkinje of the illumination light source that is lit among the pupils of the user's eyes and the illumination light sources 3-1 to 3-n on the image. Detect the image. The line-of-sight detection unit 21 detects the user's line-of-sight direction based on the positional relationship between the pupil and the Purkinje image. In the following, for convenience of explanation, an illumination light source that is lit may be simply referred to as a lit light source.

視線検出部21は、画像から、先ず、ユーザの左右の眼のそれぞれについて、その眼が写っている領域(以下、単に眼領域と呼ぶ)を検出する。そのために、視線検出部21は、例えば、画像から眼領域を検出するように予め学習された識別器を用いて眼領域を検出する。この場合、識別器として、例えば、アダブーストまたはリアルアダブースト、サポートベクトルマシン、あるいは、ディープニューラルネットワークが利用される。そして視線検出部21は、画像上にウインドウを設定し、そのウインドウの位置を変えながら、ウインドウ内の各画素の値またはそのウインドウから抽出した特徴量を識別器に入力することで、そのウインドウが眼領域か否かを判定する。また、特徴量として、例えば、Haar-like特徴量あるいはHistograms of Oriented Gradients特徴量が抽出される。   The line-of-sight detection unit 21 first detects, from the image, an area in which each of the user's left and right eyes is reflected (hereinafter simply referred to as an eye area). For this purpose, the line-of-sight detection unit 21 detects the eye region using, for example, a discriminator that has been learned in advance so as to detect the eye region from the image. In this case, for example, Adaboost or Real Adaboost, a support vector machine, or a deep neural network is used as the discriminator. Then, the line-of-sight detection unit 21 sets a window on the image, changes the position of the window, and inputs the value of each pixel in the window or the feature amount extracted from the window to the discriminator. It is determined whether or not the eye area. Further, for example, a Haar-like feature quantity or a Histograms of Oriented Gradients feature quantity is extracted as the feature quantity.

あるいは、視線検出部21は、眼を表すテンプレートと、画像とのテンプレートマッチングにより、テンプレートに最も一致する領域を検出し、その検出した領域を眼領域としてもよい。あるいはまた、視線検出部21は、画像上に写っている眼の領域を検出する他の様々な方法の何れかに従って眼領域を検出してもよい。   Alternatively, the line-of-sight detection unit 21 may detect an area that most closely matches the template by template matching between the template representing the eye and the image, and may use the detected area as the eye area. Alternatively, the line-of-sight detection unit 21 may detect the eye area according to any of various other methods for detecting the eye area shown on the image.

眼領域が検出されると、視線検出部21は、何れか一方の眼領域内で瞳孔及び点灯光源のプルキンエ像を検出する。   When the eye area is detected, the line-of-sight detection unit 21 detects the pupil and the Purkinje image of the lighting light source in any one of the eye areas.

例えば、視線検出部21は、瞳孔を検出するために、瞳孔に相当するテンプレートと眼領域との間でテンプレートマッチングを行い、眼領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして視線検出部21は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域を、瞳孔が写っている瞳孔領域と判定する。なお、ユーザの周囲の明るさに応じて瞳孔のサイズは変化する。また、瞳孔は略円形であるが、赤外カメラ4が瞳孔を斜めから見ている場合、画像上での瞳孔の形状は垂直方向に長い楕円形状となる。そこでテンプレートは、瞳孔の大きさまたは形状に応じて複数準備されてもよい。この場合、視線検出部21は、各テンプレートと眼領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、視線検出部21は、一致度の最高値に対応するテンプレートと重なった領域を瞳孔領域と判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。   For example, the line-of-sight detection unit 21 performs template matching between the template corresponding to the pupil and the eye region in order to detect the pupil, and detects a region having the highest degree of matching with the template in the eye region. When the highest coincidence value is higher than a predetermined coincidence threshold value, the line-of-sight detection unit 21 determines the detected region as a pupil region in which the pupil is reflected. Note that the size of the pupil changes according to the brightness around the user. Moreover, although the pupil is substantially circular, when the infrared camera 4 is viewing the pupil from an oblique direction, the shape of the pupil on the image is an elliptical shape that is long in the vertical direction. Therefore, a plurality of templates may be prepared according to the size or shape of the pupil. In this case, the line-of-sight detection unit 21 performs template matching between each template and the eye region, and obtains the highest matching degree. If the highest coincidence value is higher than the coincidence degree threshold, the line-of-sight detection unit 21 determines that the region overlapping the template corresponding to the highest coincidence value is a pupil region. Note that the degree of coincidence is calculated as, for example, a normalized cross-correlation value between a template and a region overlapping the template. The coincidence threshold is set to 0.7 or 0.8, for example.

また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで視線検出部21は、眼領域内で、同心円状に半径の異なる2本のリングを持つ2重リングフィルタを設定する。そして視線検出部21は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。また視線検出部21は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。   The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Therefore, the line-of-sight detection unit 21 sets a double ring filter having two rings with different radii concentrically within the eye region. When the difference value obtained by subtracting the average luminance value of the inner pixels from the average luminance value of the pixels corresponding to the outer ring is larger than a predetermined threshold, the line-of-sight detection unit 21 is surrounded by the inner ring. The region may be a pupil region. The line-of-sight detection unit 21 may add to the condition for detecting the pupil region that the average luminance value of the region surrounded by the inner ring is equal to or less than a predetermined threshold value. In this case, for example, the predetermined threshold is set to a value obtained by adding 10% to 20% of the difference between the maximum luminance value and the minimum luminance value in the eye region to the minimum luminance value.

なお、視線検出部21は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔領域を検出してもよい。   Note that the line-of-sight detection unit 21 may detect the pupil region using any of various other methods for detecting the region in which the pupil is shown on the image.

また、点灯光源のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高く、その輝度値は略飽和している(すなわち、輝度値が、画素値が取り得る輝度の値の略最高値となっている)。また、点灯光源のプルキンエ像が写っている領域の形状は、点灯光源の発光面の形状と略一致する。そこで視線検出部21は、点灯光源のプルキンエ像を検出するために、眼領域内で、点灯光源の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そして視線検出部21は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値を求める。視線検出部21は、その差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い場合、その内側のリングで囲まれた領域を点灯光源のプルキンエ像とする。なお、差分閾値は、例えば、眼領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼領域内での輝度値の最高値の80%とすることができる。   In addition, the luminance of the region where the Purkinje image of the lighting source is reflected is higher than the luminance of the surrounding region, and the luminance value is substantially saturated (that is, the luminance value is a luminance value that can be taken by the pixel value). It is almost the highest value of). In addition, the shape of the region where the Purkinje image of the lighting light source is reflected substantially matches the shape of the light emitting surface of the lighting light source. Therefore, the line-of-sight detection unit 21 has a shape that substantially matches the contour shape of the light emitting surface of the lighting light source in the eye region, and has a different size and a center to detect the Purkinje image of the lighting light source. Set up two rings. The line-of-sight detection unit 21 obtains a difference value obtained by subtracting the average value of the brightness of the outer pixels from the average value of the brightness of the pixels corresponding to the inner ring. When the difference value is larger than the predetermined difference threshold value and the inner luminance average value is higher than the predetermined luminance threshold value, the line-of-sight detection unit 21 sets the area surrounded by the inner ring as the Purkinje image of the lighting light source. . The difference threshold value can be, for example, an average value of difference values between neighboring pixels in the eye area. Further, the predetermined luminance threshold can be set to 80% of the maximum luminance value in the eye area, for example.

なお、視線検出部21は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、点灯光源のプルキンエ像が写っている領域を検出してもよい。   Note that the line-of-sight detection unit 21 may detect an area in which the Purkinje image of the lighting light source is captured using any of various other methods for detecting the area in which the Purkinje image of the light source is captured on the image. Good.

視線検出部21は、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心(以下、単に瞳孔重心と呼ぶ)の位置座標として算出する。同様に、視線検出部21は、プルキンエ像が写っている領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の位置座標として算出する。   The line-of-sight detection unit 21 calculates the average value of the horizontal coordinate value and the average value of the vertical coordinate value of each pixel included in the pupil region as the position coordinate of the centroid of the pupil region (hereinafter simply referred to as the pupil centroid). . Similarly, the line-of-sight detection unit 21 calculates the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the region where the Purkinje image is captured as the position coordinate of the center of gravity of the Purkinje image.

本実施形態では、視線検出部21は、検出されたプルキンエ像が一つの場合と二つの場合とで、異なる方式に従ってユーザの視線方向を検出する。   In the present embodiment, the line-of-sight detection unit 21 detects the user's line-of-sight direction according to different methods depending on whether the detected Purkinje image is one or two.

検出されたプルキンエ像が一つの場合、視線検出部21は、二つの点灯光源のうち、画像上で検出されたプルキンエ像に対応する点灯光源を特定する。   When there is one detected Purkinje image, the line-of-sight detection unit 21 identifies a lighting light source corresponding to the Purkinje image detected on the image, out of the two lighting light sources.

図4は、画像上で検出されるプルキンエ像が一つである場合の、点灯光源及び赤外カメラ4と、ユーザの視線方向との関係の一例を示す図である。この例では、赤外カメラ4の左側に位置する照明光源3−2と、赤外カメラ4の右側に位置する照明光源3−5とが点灯しているものとする。ユーザが赤外カメラ4の方を向いていれば、ユーザの角膜401は、赤外カメラ4と対向している。そのため、赤外カメラ4から見て、照明光源3−2及び3−5からの光を反射する位置は、ユーザの角膜401上に位置し、画像上に二つのプルキンエ像が写ると想定される。したがって、画像上でプルキンエ像が一つしか表れない場合には、例えば、図4において矢印402で示されるように、ユーザの視線が、赤外カメラ4から離れた位置を向いていると想定される。そして矢印403で示されるように、点灯している二つの照明光源のうち、ユーザの視線方向に近い方の照明光源(図4では、照明光源3−2)からの光が、角膜401で反射されて赤外カメラ4に達する。一方、矢印404で示されるように、ユーザの視線方向から遠い方の照明光源(図4では、照明光源3−5)からの光は、角膜401から外れた眼球の表面で反射されて赤外カメラ4に達するため、その照明光源のプルキンエ像は画像上に写らない。正確には、角膜以外の眼球の表面は白いため、角膜以外の眼球の表面で照明光源からの光が反射されると、画像上ではプルキンエ像とその周囲の輝度差が少なく、プルキンエ像を識別することが困難となる。   FIG. 4 is a diagram illustrating an example of the relationship between the lighting light source and the infrared camera 4 and the user's line-of-sight direction when there is one Purkinje image detected on the image. In this example, it is assumed that the illumination light source 3-2 located on the left side of the infrared camera 4 and the illumination light source 3-5 located on the right side of the infrared camera 4 are lit. If the user faces the infrared camera 4, the user's cornea 401 faces the infrared camera 4. Therefore, when viewed from the infrared camera 4, the position where the light from the illumination light sources 3-2 and 3-5 is reflected is located on the user's cornea 401, and it is assumed that two Purkinje images appear on the image. . Therefore, when only one Purkinje image appears on the image, for example, it is assumed that the user's line of sight is directed away from the infrared camera 4 as indicated by an arrow 402 in FIG. The As indicated by an arrow 403, the light from the illumination light source (illumination light source 3-2 in FIG. 4) that is closer to the user's line-of-sight direction is reflected by the cornea 401. The infrared camera 4 is reached. On the other hand, as indicated by an arrow 404, the light from the illumination light source (illumination light source 3-5 in FIG. 4) far from the user's line of sight is reflected by the surface of the eyeball off the cornea 401 and becomes infrared. Since the camera 4 is reached, the Purkinje image of the illumination light source does not appear on the image. Precisely, since the surface of the eyeball other than the cornea is white, if the light from the illumination light source is reflected on the surface of the eyeball other than the cornea, the Purkinje image and the surrounding luminance difference are small on the image, and the Purkinje image is identified. Difficult to do.

そこで、視線検出部21は、何れか一方の眼について、眼頭と目尻に対する瞳孔の相対的な位置関係に基づいて、視線方向が赤外カメラ4よりも右側または左側の何れを見ているかを判定する。そして視線検出部21は、点灯している二つの照明光源のうち、視線方向に近い方の照明光源のプルキンエ像が画像上に表されていると判定する。   Therefore, the line-of-sight detection unit 21 determines whether the line-of-sight direction is on the right side or the left side of the infrared camera 4 based on the relative positional relationship of the pupil with respect to the head of the eye and the eye corner. judge. Then, the line-of-sight detection unit 21 determines that the Purkinje image of the illumination light source closer to the line-of-sight direction is displayed on the image among the two illumination light sources that are lit.

例えば、視線検出部21は、検出された二つの眼領域のうちの一方に対して、例えば、harrisフィルタといったコーナー検出フィルタ処理を行って、眼領域中のコーナーを検出する。そして視線検出部21は、検出された二つのコーナーのうち、他方の眼領域に近い方のコーナーを眼頭とし、他方のコーナーを目尻とする。視線検出部21は、眼頭と目尻の中点を算出し、その中点と瞳孔の位置を比較することで、視線方向を判定する。例えば、二つの眼領域のうち、画像上で右側に位置する眼領域(すなわち、ユーザの左眼)について、瞳孔が眼頭と目尻の中点よりも眼頭側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも左側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも左側に位置する照明光源のものであると判定する。一方、瞳孔が眼頭と目尻の中点よりも目尻側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも右側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも右側に位置する照明光源のものであると判定する。   For example, the line-of-sight detection unit 21 performs a corner detection filter process such as a harris filter on one of the two detected eye regions to detect a corner in the eye region. Then, the line-of-sight detection unit 21 sets a corner closer to the other eye region as the head of the two detected corners, and sets the other corner as the corner of the eye. The line-of-sight detection unit 21 determines the line-of-sight direction by calculating the midpoint of the eye and the corner of the eye and comparing the midpoint and the position of the pupil. For example, if the pupil of the two eye regions located on the right side in the image (that is, the user's left eye) is closer to the eye head side than the midpoint of the eye head and the eye corner, the line-of-sight detection unit 21 Determines that the line-of-sight direction is to the left of the infrared camera 4. The line-of-sight detection unit 21 determines that the Purkinje image on the image belongs to the illumination light source located on the left side of the infrared camera 4. On the other hand, if the pupil is closer to the outer corner of the eye than the middle point of the eye and the outer corner of the eye, the line-of-sight detection unit 21 determines that the line-of-sight direction is facing the right side of the infrared camera 4. The line-of-sight detection unit 21 determines that the Purkinje image on the image belongs to the illumination light source located on the right side of the infrared camera 4.

また、二つの眼領域のうち、画像上で左側に位置する眼領域(すなわち、ユーザの右眼)について、瞳孔が眼頭と目尻の中点よりも眼頭側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも右側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも右側に位置する照明光源のものであると判定する。一方、瞳孔が眼頭と目尻の中点よりも目尻側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも左側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも左側に位置する照明光源のものであると判定する。   Of the two eye regions, the eye region located on the left side of the image (that is, the user's right eye), if the pupil is closer to the occipital side than the midpoint of the eye and the corner of the eye, the line-of-sight detection unit 21. Determines that the line-of-sight direction is on the right side of the infrared camera 4. The line-of-sight detection unit 21 determines that the Purkinje image on the image belongs to the illumination light source located on the right side of the infrared camera 4. On the other hand, if the pupil is closer to the outer corner of the eye than the middle point of the eye and the outer corner of the eye, the line-of-sight detection unit 21 determines that the line-of-sight direction is facing the left side of the infrared camera 4. The line-of-sight detection unit 21 determines that the Purkinje image on the image belongs to the illumination light source located on the left side of the infrared camera 4.

プルキンエ像に対応する点灯光源が特定されると、視線検出部21は、特定された点灯光源と赤外カメラ4との位置関係と、プルキンエ像と瞳孔重心との位置関係とに基づいて、ユーザの視線方向を検出する。   When the lighting light source corresponding to the Purkinje image is identified, the line-of-sight detection unit 21 determines the user based on the positional relationship between the identified lighting light source and the infrared camera 4 and the positional relationship between the Purkinje image and the pupil center of gravity. The direction of the line of sight is detected.

角膜の表面は略球形であるため、視線方向によらず、点灯光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、視線方向に応じて移動する。そのため、視線検出部21は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、視線方向を検出できる。   Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the lighting light source is almost constant regardless of the line-of-sight direction. On the other hand, the center of the pupil moves according to the line-of-sight direction. Therefore, the line-of-sight detection unit 21 can detect the line-of-sight direction by obtaining the relative position of the pupil center of gravity relative to the center of gravity of the Purkinje image.

例えば、視線検出部21は、点灯光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部21は、瞳孔重心の相対的な位置と視線方向との関係を表す参照テーブルを参照することにより、視線方向を決定する。   For example, the line-of-sight detection unit 21 calculates the relative position of the pupil center of gravity with respect to the center of gravity of the Purkinje image of the lighting light source, for example, the horizontal coordinate of the center of gravity of the Purkinje image from the horizontal coordinate and the vertical coordinate of the pupil center of gravity. Obtained by subtracting the vertical coordinate. The line-of-sight detection unit 21 determines the line-of-sight direction by referring to a reference table that represents the relationship between the relative position of the pupil center of gravity and the line-of-sight direction.

赤外カメラ4と点灯光源の位置関係に応じて、プルキンエ像に対応する視線方向が異なるため、瞳孔重心の相対的な位置と視線方向との関係を表す参照テーブルは、照明光源3−1〜3−nのそれぞれごとに予め用意され、メモリ7に保存される。そこで視線検出部21は、特定された点灯光源に対応する参照テーブルをメモリ7から読み込んで、視線方向を検出するために利用すればよい。   Since the line-of-sight direction corresponding to the Purkinje image differs according to the positional relationship between the infrared camera 4 and the lighting light source, the reference table indicating the relationship between the relative position of the pupil center of gravity and the line-of-sight direction is an illumination light source 3-1. Each of 3-n is prepared in advance and stored in the memory 7. Therefore, the line-of-sight detection unit 21 may read a reference table corresponding to the specified lighting light source from the memory 7 and use it to detect the line-of-sight direction.

また、画像上に、点灯している二つの照明光源のそれぞれのプルキンエ像が写っている場合、視線検出部21は、例えば、文献(大野健彦、「1点キャリブレーションによる視線計測とその応用」、情報処理学会 研究報告、2006年)に記載されている方法に従って、視線方向を検出してもよい。すなわち、視線検出部21は、二つのプルキンエ像間の間隔と、仮定される角膜曲率半径と、赤外カメラ4から角膜までの距離とに基づいて角膜の曲率中心の3次元位置を算出する。また、視線検出部21は、画像上の瞳孔重心の位置(すなわち、赤外カメラ4の光軸を基準とした、赤外カメラ4から瞳孔重心へ向かう方向を表す)と、赤外カメラ4から角膜までの距離とに基づいて、瞳孔重心の3次元位置を算出する。そして視線検出部21は、瞳孔重心の3次元位置から角膜の曲率中心の3次元位置を減じることで得られるベクトルを、ユーザの視線方向を表すベクトルとする。なお、赤外カメラ4から角膜までの距離は、例えば、赤外カメラ4の焦点距離、及び、人の平均的な両眼の中心間距離(64mm)に対応する画像上での距離に対する画像上での両眼の中心間距離の比に基づいて算出される。この場合、画像上での両眼の中心間距離は、例えば、左右それぞれの眼の目尻と眼頭間の中点間の距離として算出されればよい。あるいは、赤外カメラ4から角膜までの距離は、デジタルサイネージシステム1がステレオカメラあるいはデプスカメラといった距離センサ(図示せず)を有している場合、その距離センサによる測定値に基づいて求められてもよい。あるいはまた、ユーザの位置が予め想定される場合、赤外カメラ4から角膜までの距離は、メモリ7に予め記憶されていてもよい。   In addition, when the Purkinje images of the two illuminating light sources that are lit are shown on the image, the line-of-sight detection unit 21 is, for example, a literature (Takehiko Ohno, “Gaze measurement by one-point calibration and its application”). The direction of the line of sight may be detected according to a method described in Information Processing Society of Japan, 2006). That is, the line-of-sight detection unit 21 calculates the three-dimensional position of the curvature center of the cornea based on the interval between the two Purkinje images, the assumed corneal curvature radius, and the distance from the infrared camera 4 to the cornea. In addition, the line-of-sight detection unit 21 represents the position of the center of gravity of the pupil on the image (that is, the direction from the infrared camera 4 toward the center of the pupil with respect to the optical axis of the infrared camera 4), and the infrared camera 4 Based on the distance to the cornea, the three-dimensional position of the center of gravity of the pupil is calculated. The line-of-sight detection unit 21 sets a vector obtained by subtracting the three-dimensional position of the center of curvature of the cornea from the three-dimensional position of the center of gravity of the pupil as a vector representing the line-of-sight direction of the user. The distance from the infrared camera 4 to the cornea is, for example, on the image relative to the distance on the image corresponding to the focal distance of the infrared camera 4 and the average distance between the centers of both eyes (64 mm). Is calculated based on the ratio of the center-to-center distances of both eyes. In this case, the distance between the centers of both eyes on the image may be calculated as, for example, the distance between the middle points between the corners of the left and right eyes and the eye head. Alternatively, when the digital signage system 1 has a distance sensor (not shown) such as a stereo camera or a depth camera, the distance from the infrared camera 4 to the cornea is obtained based on a measurement value by the distance sensor. Also good. Alternatively, when the position of the user is assumed in advance, the distance from the infrared camera 4 to the cornea may be stored in advance in the memory 7.

なお、視線検出部21は、画像上に二つのプルキンエ像が写っている場合でも、何れか一方のプルキンエ像と瞳孔重心の位置関係に基づいてユーザの視線方向を検出してもよい。この場合には、視線検出部21は、一つのプルキンエ像が写っている場合と同様の方法により、ユーザの視線方向を検出できる。また、視線検出部21は、二つのプルキンエ像の並びに応じて、各プルキンエ像に対応する、点灯光源を特定できる。例えば、二つのプルキンエ像のうち、画像上で右側に位置するプルキンエ像に対応する点灯光源は、点灯中の二つの照明光源のうちの右側に位置する照明光源である。   Note that the line-of-sight detection unit 21 may detect the user's line-of-sight direction based on the positional relationship between one of the Purkinje images and the center of the pupil even when two Purkinje images are captured on the image. In this case, the line-of-sight detection unit 21 can detect the user's line-of-sight direction by the same method as when one Purkinje image is captured. Further, the line-of-sight detection unit 21 can specify the lighting light source corresponding to each Purkinje image according to the arrangement of the two Purkinje images. For example, among the two Purkinje images, the lighting light source corresponding to the Purkinje image located on the right side in the image is an illumination light source located on the right side of the two illumination light sources that are lit.

視線検出部21は、検出した視線方向を注視位置推定部22にわたす。   The line-of-sight detection unit 21 passes the detected line-of-sight direction to the gaze position estimation unit 22.

注視位置推定部22は、検出されたユーザの視線方向に基づいて、ユーザの注視位置を推定する。
本実施形態では、注視位置推定部22は、視線方向と注視位置との関係を表す注視位置テーブルを参照することにより、注視位置を推定する。なお、視線方向と注視位置との関係は、その注視位置(例えば、表示装置2の表示画面)と視線方向が検出されたユーザとの間の距離に応じて変化する。
The gaze position estimation unit 22 estimates the user's gaze position based on the detected gaze direction of the user.
In the present embodiment, the gaze position estimation unit 22 estimates the gaze position by referring to a gaze position table that represents the relationship between the gaze direction and the gaze position. Note that the relationship between the gaze direction and the gaze position changes according to the distance between the gaze position (for example, the display screen of the display device 2) and the user whose gaze direction is detected.

そこで、注視位置テーブルは、赤外カメラ4とデジタルサイネージシステム1を利用するユーザとの間の想定される距離(例えば、1m、2mなど)に応じて、予め複数用意され、メモリ7に保存される。そして注視位置推定部22は、複数の注視位置テーブルのうち、赤外カメラ4から角膜までの距離に対応する注視位置テーブルを選択する。そして注視位置推定部22は、選択した注視位置テーブルを参照して、視線方向に対応する注視位置を求める。   Therefore, a plurality of gaze position tables are prepared in advance according to the assumed distance (for example, 1 m, 2 m, etc.) between the infrared camera 4 and the user using the digital signage system 1 and stored in the memory 7. The Then, the gaze position estimation unit 22 selects a gaze position table corresponding to the distance from the infrared camera 4 to the cornea among the plurality of gaze position tables. Then, the gaze position estimating unit 22 refers to the selected gaze position table to obtain a gaze position corresponding to the line-of-sight direction.

図5は、注視位置テーブルの一例を示す図である。注視位置テーブル500の上端の行には、視線方向が表される。そして注視位置テーブル500の各欄には、同じ列の視線方向に対応する、注視位置の座標が所定の単位(例えば、表示装置2の表示画面の画素単位、あるいは、mm単位)で表される。例えば、注視位置テーブル500の欄501には、視線方向が水平方向0°、垂直方向1°の場合の注視位置が(cx,cy+40)であることが示されている。なお、cx、cyは、視線方向が(0,0)のときの注視位置、すなわち基準注視位置の座標、例えば、赤外カメラ4の取り付け位置における、鉛直平面上の水平座標及び垂直座標である。   FIG. 5 is a diagram illustrating an example of the gaze position table. The line of sight is displayed in the top row of the gaze position table 500. In each column of the gaze position table 500, the coordinates of the gaze position corresponding to the line-of-sight direction of the same column are expressed in a predetermined unit (for example, a pixel unit of the display screen of the display device 2 or a mm unit). . For example, the column 501 of the gaze position table 500 indicates that the gaze position when the line-of-sight direction is 0 ° in the horizontal direction and 1 ° in the vertical direction is (cx, cy + 40). Note that cx and cy are the gaze position when the line-of-sight direction is (0, 0), that is, the coordinates of the reference gaze position, for example, the horizontal coordinate and the vertical coordinate on the vertical plane at the attachment position of the infrared camera 4. .

なお、注視位置推定部22は、ユーザの実空間の位置(例えば、ユーザの両眼間の中点の実空間の位置)と、ユーザの観察対象となる物体(例えば、商品棚または表示装置2の表示画面)との相対的な位置関係と視線方向とに基づいて、注視位置を推定してもよい。   Note that the gaze position estimation unit 22 includes the position in the user's real space (for example, the position of the real space at the midpoint between the eyes of the user) and the object to be observed by the user (for example, the product shelf or the display device 2). The gaze position may be estimated based on the relative positional relationship with the display screen) and the line-of-sight direction.

注視位置推定部22は、ユーザの視線方向及び注視位置が検出される度に、検出した視線方向及び注意位置を、メモリ7に保存されている検出履歴に書き込む。   The gaze position estimation unit 22 writes the detected gaze direction and attention position in the detection history stored in the memory 7 every time the user's gaze direction and gaze position are detected.

予測部23は、生成されたタイミングが異なる少なくとも2枚の画像のそれぞれから検出されたユーザの視線方向に基づいて、赤外カメラ4が次に撮影するときのユーザの視線方向を予測する。例えば、予測部23は、現フレームの画像、すなわち、最新の画像から検出されたユーザの視線方向及び1フレーム前の画像から検出されたユーザの視線方向に基づいて、赤外カメラ4が次に撮影するときのユーザの視線方向を予測する。なお、予測部23は、2回分の視線方向の検出結果が得られるまでは、視線方向を予測しなくてもよい。そして予測部23は、2回分の視線方向の検出結果が得られた後、様々な予測方法の何れかに従って視線方向を予測すればよい。例えば、予測部23は、得られた視線方向の検出結果が2以上の所定数に達するまでは、次式で表される線形予測方法に従って、視線方向を予測する。

Figure 2018197974
ここで、Ptは、最新の画像に基づいて検出された視線方向であり、Pt-1は、1フレーム前の画像に基づいて検出された視線方向である。そしてPt+1は、次フレームの赤外カメラ4による撮影時における、視線方向の予測値である。またαは補正係数であり、例えば、1に設定される。なお、補正係数αは、例えば、ユーザの眼から赤外カメラ4へ向かう方向と、視線方向とがなす角θが大きいほど、大きい値に設定される。そして補正係数αと角θとの関係を表すテーブルが予めメモリ7に保存され、予測部23は、そのテーブルを参照して、角θに対応する補正係数αを決定すればよい。 The prediction unit 23 predicts the user's line-of-sight direction when the infrared camera 4 captures next based on the user's line-of-sight direction detected from each of at least two images generated at different timings. For example, the prediction unit 23 determines whether the infrared camera 4 is next based on the image of the current frame, that is, the user's line-of-sight direction detected from the latest image and the user's line-of-sight direction detected from the image one frame before. Predict the user's gaze direction when shooting. Note that the prediction unit 23 does not have to predict the line-of-sight direction until two line-of-sight direction detection results are obtained. The prediction unit 23 may predict the line-of-sight direction according to any of various prediction methods after obtaining the detection results of the line-of-sight direction for two times. For example, the prediction unit 23 predicts the line-of-sight direction according to the linear prediction method represented by the following expression until the obtained line-of-sight direction detection results reach a predetermined number of 2 or more.
Figure 2018197974
Here, P t is the line-of-sight direction detected based on the latest image, and P t−1 is the line-of-sight direction detected based on the image one frame before. P t + 1 is a predicted value in the line-of-sight direction at the time of shooting by the infrared camera 4 in the next frame. Α is a correction coefficient, and is set to 1, for example. For example, the correction coefficient α is set to a larger value as the angle θ formed by the direction from the user's eye toward the infrared camera 4 and the line-of-sight direction is larger. A table representing the relationship between the correction coefficient α and the angle θ is stored in the memory 7 in advance, and the prediction unit 23 may determine the correction coefficient α corresponding to the angle θ by referring to the table.

また、得られた視線方向の検出結果が2以上の所定数に達すると、予測部23は、カルマンフィルタといった予測フィルタを用いて次フレームの画像取得時における視線方向の予測値Pt+1を算出してもよい。 Further, when the obtained detection result of the gaze direction reaches a predetermined number of 2 or more, the prediction unit 23 calculates a predicted value P t + 1 of the gaze direction at the time of image acquisition of the next frame using a prediction filter such as a Kalman filter. May be.

その際、予測部23は、時系列で得られる、検出された複数の視線方向のそれぞれを変数とする多項式近似により、視線方向の予測値Pt+1を算出してもよい。そして予測部23は、その多項式を決定する際、次式に従って算出される残差Qが最小となるように、多項式を決定してもよい。

Figure 2018197974
ここでf(xi)は、視線方向の予測値を算出するための多項式であり、xiは、i番目の画像についての視線方向の予測値を算出するために利用される、i番目の画像よりも前のn個のフレームのそれぞれの画像において検出された視線方向を表す。yiは、i番目の画像について検出された視線方向を表す。なお、nは、視線方向の予測に用いられる、過去に検出された視線方向の数である。またσiは、正規化された、プルキンエ像間の距離に依存する視線方向の検出精度であり、プルキンエ像間の距離が大きいほど小さくなるように予め求められる。そしてσiは、i番目の画像におけるプルキンエ像間の距離に応じて決定されればよい。視線方向の検出に用いる二つのプルキンエ像間の間隔が大きいほど、計測分解能が向上するため、視線方向の検出精度が向上する。そこで、(2)式のように、視線検出精度を視線方向の予測に反映させることで、予測部23は、視線方向の予測精度をより向上できる。 At this time, the prediction unit 23 may calculate the predicted value P t + 1 in the line-of-sight direction by polynomial approximation obtained in time series and using each of the detected plurality of line-of-sight directions as a variable. And when the prediction part 23 determines the polynomial, you may determine a polynomial so that the residual Q calculated according to following Formula may become the minimum.
Figure 2018197974
Here, f (x i ) is a polynomial for calculating the predicted value of the gaze direction, and x i is used to calculate the predicted value of the gaze direction for the i-th image. It represents the line-of-sight direction detected in each image of n frames before the image. y i represents the line-of-sight direction detected for the i-th image. Note that n is the number of gaze directions detected in the past used for gaze direction prediction. Also, σ i is the normalized detection accuracy of the line-of-sight direction depending on the distance between Purkinje images, and is obtained in advance so as to decrease as the distance between Purkinje images increases. Σ i may be determined according to the distance between Purkinje images in the i-th image. As the interval between the two Purkinje images used for the detection of the line-of-sight direction increases, the measurement resolution improves, so the detection accuracy of the line-of-sight direction improves. Therefore, as shown in the equation (2), the prediction unit 23 can improve the prediction accuracy of the gaze direction by reflecting the gaze detection accuracy in the prediction of the gaze direction.

予測部23は、次フレームの撮影時における視線方向の予測値Pt+1を光源制御部24へわたす。 The prediction unit 23 passes the predicted value P t + 1 in the line-of-sight direction at the time of shooting the next frame to the light source control unit 24.

光源制御部24は、次フレームの撮影時における視線方向の予測値Pt+1に基づいて、複数の照明光源3−1〜3−nのうち、次フレームの画像取得時に点灯させる二つの照明光源を選択する。そして光源制御部24は、選択した二つの照明光源を点灯させ、かつ、複数の照明光源3−1〜3−nのうちの他の照明光源を消灯する制御信号を生成し、その制御信号を照明光源3−1〜3−nへ出力する。 Based on the predicted value P t + 1 of the line-of-sight direction at the time of shooting the next frame, the light source control unit 24 uses two illuminations that are turned on when the image of the next frame is acquired among the plurality of illumination light sources 3-1 to 3-n. Select a light source. Then, the light source control unit 24 generates a control signal for turning on the selected two illumination light sources and turning off the other illumination light sources among the plurality of illumination light sources 3-1 to 3-n. Output to the illumination light sources 3-1 to 3-n.

本実施形態では、光源制御部24は、視線方向ごとに、画像上でプルキンエ像が写る照明光源を示した点灯モデルを参照して、視線方向の予測値Pt+1が、視線方向の検出可能範囲に含まれる照明光源、すなわわち、画像上にプルキンエ像が写る照明光源を特定する。 In the present embodiment, the light source control unit 24 refers to the lighting model that indicates the illumination light source in which the Purkinje image appears on the image for each line-of-sight direction, and the line-of-sight direction prediction value P t + 1 is detected as the line-of-sight direction. The illumination light source included in the possible range, that is, the illumination light source in which the Purkinje image appears on the image is specified.

図6は、点灯モデルの一例を示す図である。点灯モデル600は、行ごとに、一つのモデルが示され、一つのモデルには、頭部の実空間位置(x, y, z)と、視線方向(θx,θy)と、点灯する照明光源の識別番号とが含まれる。なお、xは水平方向の座標を表し、yは垂直方向の座標を表し、zは、赤外カメラ4の光軸に沿った奥行き方向の座標を表す。またθxは、水平方向の角度を表し、θyは、垂直方向の角度を表す。なお、頭部の実空間位置は、例えば、ユーザの両眼間の中点とすることができる。   FIG. 6 is a diagram illustrating an example of a lighting model. The lighting model 600 shows one model for each row, and one model includes the real space position (x, y, z) of the head, the line-of-sight direction (θx, θy), and the illumination light source to be lit. Identification number. Note that x represents horizontal coordinates, y represents vertical coordinates, and z represents depth-direction coordinates along the optical axis of the infrared camera 4. Θx represents the angle in the horizontal direction, and θy represents the angle in the vertical direction. In addition, the real space position of a head can be made into the midpoint between both eyes of a user, for example.

例えば、光源制御部24は、点灯モデル600に表された各モデルのうち、視線方向の予測値Pt+1に最も近い視線方向が表されたモデルを特定する。光源制御部24は、特定したモデルのうちでユーザの頭部の位置に最も近い頭部の実空間位置が表されたモデルを参照して、視線方向の予測値Pt+1に対応する照明光源を特定すればよい。 For example, the light source control unit 24 identifies a model in which the line-of-sight direction closest to the predicted value P t + 1 of the line-of-sight direction is represented among the models represented in the lighting model 600. The light source control unit 24 refers to a model in which the real space position of the head closest to the position of the user's head among the identified models is represented, and the illumination corresponding to the predicted value P t + 1 in the line-of-sight direction What is necessary is just to specify a light source.

図7及び図8は、点灯する照明光源を選択する処理の原理を説明する図である。図7及び図8において、検出可能範囲701は、検出可能なユーザの視線方向の範囲、すなわち、画像上で照明光源3−1のプルキンエ像が写る視線方向の範囲を表す。同様に、検出可能範囲702〜706は、それぞれ、画像上で照明光源3−2〜3−6のプルキンエ像が写る視線方向の範囲を表す。   7 and 8 are diagrams illustrating the principle of processing for selecting an illumination light source to be lit. 7 and 8, a detectable range 701 represents a detectable range of the user's line of sight, that is, a range of the line of sight in which the Purkinje image of the illumination light source 3-1 appears on the image. Similarly, the detectable ranges 702 to 706 represent ranges in the line-of-sight direction in which the Purkinje images of the illumination light sources 3-2 to 3-6 appear on the image, respectively.

図7を参照して、視線方向の予測結果が利用可能となるまでにおける、点灯させる照明光源の制御について説明する。
視線検出処理が開始されると、最初に、光源制御部24は、視線方向の検出可能範囲が最も広くなり、かつ、赤外カメラ4へ向かう方向の近くにて視線方向が検出できない範囲が生じないように、照明光源3−2と3−5とを点灯させる。この場合において、矢印711で示される、ユーザの視線方向が、検出可能範囲701〜703のそれぞれが重なる部分へ向いているとする。光源制御部24は、点灯モデルを参照して、照明光源3−1〜3−6のうち、視線方向を検出可能な照明光源として、照明光源3−1〜3−3を特定する。すなわち、照明光源3−1〜3−3からの光は、それぞれ、ユーザの角膜700上の点721〜723で反射されて赤外カメラ4に達する。一方、照明光源3−4〜3−6からの光は、ユーザの角膜700以外の眼球の表面で反射されて赤外カメラ4に達するため、プルキンエ像が写らない。この3個の照明光源のうち、視線方向を検出可能な範囲が最も広くなり、かつ、二つのプルキンエ像を用いて視線方向を検出する際の検出精度が向上するように、光源制御部24は、最も離れた照明光源3−1と3−3とを、点灯させる照明光源として選択する。そして光源制御部24は、赤外カメラ4の次回撮影時に、照明光源3−1と3−3とを点灯させ、その他の照明光源を消灯する。
With reference to FIG. 7, the control of the illumination light source to be lit until the prediction result of the line-of-sight direction becomes available will be described.
When the line-of-sight detection process is started, first, the light source control unit 24 has the largest detectable range of the line-of-sight direction, and a range in which the line-of-sight direction cannot be detected near the direction toward the infrared camera 4 is generated. Illumination light sources 3-2 and 3-5 are turned on so that there is not. In this case, it is assumed that the user's line-of-sight direction indicated by an arrow 711 is directed to a portion where each of the detectable ranges 701 to 703 overlaps. The light source control unit 24 refers to the lighting model and identifies the illumination light sources 3-1 to 3-3 as the illumination light sources that can detect the line-of-sight direction among the illumination light sources 3-1 to 3-6. That is, the light from the illumination light sources 3-1 to 3-3 is reflected by the points 721 to 723 on the user's cornea 700 and reaches the infrared camera 4. On the other hand, since the light from the illumination light sources 3-4 to 3-6 is reflected by the surface of the eyeball other than the cornea 700 of the user and reaches the infrared camera 4, no Purkinje image is captured. Among these three illumination light sources, the light source control unit 24 has the widest range in which the line-of-sight direction can be detected and the detection accuracy when detecting the line-of-sight direction using two Purkinje images is improved. The farthest illumination light sources 3-1 and 3-3 are selected as illumination light sources to be turned on. Then, the light source control unit 24 turns on the illumination light sources 3-1 and 3-3 and turns off the other illumination light sources when the infrared camera 4 is next photographed.

次に、図8を参照して、視線方向の予測結果が利用可能となった以降での、点灯させる照明光源の制御について説明する。矢印811は、1フレーム前の画像に基づいて検出された視線方向を表し、矢印812は、現フレームの画像に基づいて検出された視線方向を表す。そして矢印813は、次フレームについて予測された視線方向を表す。   Next, control of the illumination light source to be lit after the prediction result of the line-of-sight direction becomes available will be described with reference to FIG. An arrow 811 represents the line-of-sight direction detected based on the image of the previous frame, and an arrow 812 represents the line-of-sight direction detected based on the image of the current frame. An arrow 813 represents the line-of-sight direction predicted for the next frame.

光源制御部24は、次フレームにおいて、予測された視線方向と、実際の視線方向との間に誤差が生じていても、視線方向を検出できるように、点灯する照明光源を選択する。そこで、光源制御部24は、次フレームについて予測された視線方向と現フレームについての視線方向の両方が検出可能範囲に含まれる照明光源のなかから、点灯させる照明光源を選択する。   In the next frame, the light source control unit 24 selects an illumination light source to be lit so that the line-of-sight direction can be detected even if there is an error between the predicted line-of-sight direction and the actual line-of-sight direction. Therefore, the light source control unit 24 selects an illumination light source to be lit from illumination light sources in which both the gaze direction predicted for the next frame and the gaze direction for the current frame are included in the detectable range.

図8では、矢印813で示されるように、予測された視線方向は、検出可能範囲702〜704と重なっているので、予測された視線方向について検出可能となる照明光源は、照明光源3−2〜3−4である。すなわち、照明光源3−2〜3−4からの光は、それぞれ、角膜700上の点821〜823で反射されて赤外カメラ4に達すると想定される。一方、照明光源3−1、3−5及び3−6からの光は、角膜700以外の眼球の表面で反射されて赤外カメラ4に達すると想定される。また、矢印812で示されるように、現フレームでの検出された視線方向は、検出可能範囲701〜703と重なっているので、現フレームでの視線方向について検出可能となる照明光源は、照明光源3−1〜3−3である。すなわち、照明光源3−1〜3−3からの光は、それぞれ、角膜700上の点831〜833で反射されて赤外カメラ4に達する。そこで光源制御部24は、現フレームと次フレームの両方で視線方向を検出可能な照明光源3−2と照明光源3−3とを選択する。
なお、現フレームと次フレームの両方で視線方向を検出可能な照明光源が3個以上ある場合、光源制御部24は、それらの照明光源の中から、最も離れた二つの照明光源を選択すればよい。
In FIG. 8, as indicated by an arrow 813, the predicted line-of-sight direction overlaps with the detectable ranges 702 to 704, so the illumination light source that can be detected for the predicted line-of-sight direction is the illumination light source 3-2. ~ 3-4. That is, it is assumed that light from the illumination light sources 3-2 to 3-4 is reflected at points 821 to 823 on the cornea 700 and reaches the infrared camera 4. On the other hand, light from the illumination light sources 3-1, 3-5, and 3-6 is assumed to be reflected by the surface of the eyeball other than the cornea 700 and reach the infrared camera 4. Further, as indicated by an arrow 812, the detected line-of-sight direction in the current frame overlaps with the detectable ranges 701 to 703, so that the illumination light source that can be detected for the line-of-sight direction in the current frame is an illumination light source. 3-1 to 3-3. That is, light from the illumination light sources 3-1 to 3-3 is reflected at points 831 to 833 on the cornea 700 and reaches the infrared camera 4. Therefore, the light source control unit 24 selects an illumination light source 3-2 and an illumination light source 3-3 that can detect the line-of-sight direction in both the current frame and the next frame.
When there are three or more illumination light sources that can detect the line-of-sight direction in both the current frame and the next frame, the light source control unit 24 selects the two most distant illumination light sources from those illumination light sources. Good.

光源制御部24は、フレームごとに、照明光源3−1〜3−nのうち、選択した二つの照明光源を点灯させ、かつ、その他の照明光源を消灯する制御信号を生成し、その制御信号を照明光源3−1〜3−nへ出力する。また、光源制御部24は、フレームごとに、選択した二つの照明光源の識別番号を検出履歴に追加する。   The light source control unit 24 generates a control signal for turning on the two selected illumination light sources among the illumination light sources 3-1 to 3-n and turning off the other illumination light sources for each frame. Are output to the illumination light sources 3-1 to 3-n. Further, the light source control unit 24 adds the identification numbers of the two selected illumination light sources to the detection history for each frame.

図9は、プロセッサ8により実行される、視線方向の予測結果が照明光源の点灯制御に利用可能となるまでの、視線検出処理の動作フローチャートを示す。プロセッサ8は、画像が取得される度に、下記の動作フローチャートに従って視線検出処理を実行する。   FIG. 9 is an operation flowchart of the line-of-sight detection process performed by the processor 8 until the line-of-sight direction prediction result can be used for lighting control of the illumination light source. The processor 8 executes a line-of-sight detection process according to the following operation flowchart every time an image is acquired.

光源制御部24は、視線方向が既に検出されたか否か判定する(ステップS101)。視線方向が一回も検出されていなければ、すなわち、視線検出処理の開始直後であれば(ステップS101−No)、光源制御部24は、照明光源3−1〜3−nのうち、予め定められた二つの照明光源を点灯させる(ステップS102)。一方、直前のフレームの画像で視線方向が検出されていれば(ステップS101−Yes)、光源制御部24は、検出された視線方向と点灯モデルに基づいて選択された二つの照明光源を点灯させる(ステップS103)。   The light source control unit 24 determines whether the line-of-sight direction has already been detected (step S101). If the line-of-sight direction has not been detected once, that is, immediately after the start of the line-of-sight detection process (step S101-No), the light source control unit 24 determines in advance among the illumination light sources 3-1 to 3-n. The two illumination light sources are turned on (step S102). On the other hand, if the line-of-sight direction is detected in the image of the immediately preceding frame (step S101—Yes), the light source control unit 24 turns on the two illumination light sources selected based on the detected line-of-sight direction and the lighting model. (Step S103).

ステップS102またはステップS103の後、赤外カメラ4はユーザを撮影して画像を生成する。そして視線検出部21は、生成された画像上で瞳孔及びプルキンエ像を検出する(ステップS104)。視線検出部21は、検出されたプルキンエ像が一つか否か判定する(ステップS105)。検出されたプルキンエ像が一つであれば(ステップS105−Yes)、視線検出部21は、一つのプルキンエ像と瞳孔に基づいて視線方向を検出する(ステップS106)。一方、検出されたプルキンエ像が二つであれば(ステップS105−No)、視線検出部21は、二つのプルキンエ像と瞳孔に基づいて視線方向を検出する(ステップS107)。   After step S102 or step S103, the infrared camera 4 captures the user and generates an image. The line-of-sight detection unit 21 detects the pupil and the Purkinje image on the generated image (step S104). The line-of-sight detection unit 21 determines whether there is one detected Purkinje image (step S105). If the detected Purkinje image is one (step S105-Yes), the line-of-sight detection unit 21 detects the line-of-sight direction based on one Purkinje image and the pupil (step S106). On the other hand, if there are two Purkinje images detected (step S105-No), the line-of-sight detection unit 21 detects the line-of-sight direction based on the two Purkinje images and the pupil (step S107).

ステップS106またはS107の後、注視位置推定部22は、検出された視線方向に基づいてユーザの注視位置を推定する(ステップS108)。   After step S106 or S107, the gaze position estimation unit 22 estimates the user's gaze position based on the detected gaze direction (step S108).

また、予測部23は、2フレーム以上視線方向が検出されたか否か判定する(ステップS109)。2フレーム以上視線方向が検出されていれば、予測部23は、現フレームの視線方向と一つ前のフレームの視線方向とに基づいて次フレームの撮影時における視線方向を予測する(ステップS110)。ステップS110の後、または、ステップS109にて視線方向が検出されたフレーム数が2未満であれば、プロセッサ8は、視線検出処理を終了する。   Further, the prediction unit 23 determines whether or not the gaze direction is detected for two frames or more (step S109). If the line-of-sight direction is detected for two or more frames, the prediction unit 23 predicts the line-of-sight direction at the time of shooting the next frame based on the line-of-sight direction of the current frame and the line-of-sight direction of the previous frame (step S110). . After step S110 or if the number of frames in which the line-of-sight direction is detected in step S109 is less than 2, the processor 8 ends the line-of-sight detection process.

図10は、プロセッサ8により実行される、視線方向の予測結果が照明光源の点灯制御に利用可能となった以降の、視線検出処理の動作フローチャートを示す。プロセッサ8は、画像が取得される度に、下記の動作フローチャートに従って視線検出処理を実行する。   FIG. 10 shows an operation flowchart of the gaze detection process after the gaze direction prediction result executed by the processor 8 becomes available for lighting control of the illumination light source. The processor 8 executes a line-of-sight detection process according to the following operation flowchart every time an image is acquired.

光源制御部24は、直前のフレームにおいて予測された視線方向及び直前のフレームにて検出された視線方向と点灯モデルに基づいて選択された二つの照明光源を点灯させる(ステップS201)。   The light source control unit 24 turns on the two illumination light sources selected based on the line-of-sight direction predicted in the previous frame and the line-of-sight direction detected in the previous frame and the lighting model (step S201).

二つの照明光源が点灯した後、赤外カメラ4はユーザを撮影して画像を生成する。そして視線検出部21は、生成された画像上で瞳孔及びプルキンエ像を検出する(ステップS202)。そして視線検出部21は、二つのプルキンエ像と瞳孔に基づいて視線方向を検出する(ステップS203)。また、注視位置推定部22は、検出された視線方向に基づいてユーザの注視位置を推定する(ステップS204)。   After the two illumination light sources are turned on, the infrared camera 4 captures the user and generates an image. The line-of-sight detection unit 21 detects the pupil and Purkinje image on the generated image (step S202). The line-of-sight detection unit 21 detects the line-of-sight direction based on the two Purkinje images and the pupil (step S203). The gaze position estimation unit 22 estimates the user's gaze position based on the detected gaze direction (step S204).

予測部23は、少なくとも現フレームの視線方向と一つ前のフレームの視線方向とに基づいて次フレームの撮影時における視線方向を予測する(ステップS205)。ステップS205の後、プロセッサ8は、視線検出処理を終了する。   The prediction unit 23 predicts the gaze direction at the time of shooting the next frame based on at least the gaze direction of the current frame and the gaze direction of the previous frame (step S205). After step S205, the processor 8 ends the line-of-sight detection process.

以上に説明してきたように、この視線検出装置は、複数の照明光源のうちの点灯させる照明光源を、予測された視線方向に基づいて、プルキンエ像が画像上に写るように、すなわち、プルキンエ像に基づいて視線方向を検出可能なように選択する。その際、この視線検出装置は、次フレームについて予測された視線方向と、現フレームについて検出された視線方向の両方について、点灯させる照明光源のプルキンエ像が画像上に写るように点灯させる照明光源を選択する。これにより、この視線検出装置は、画像上でプルキンエ像が常に写るようにすることができるので、視線方向の検出精度を向上できる。また、プルキンエ像が画像上に写る照明光源が3個以上ある場合、視線検出装置は、その3個以上の照明光源の中から、互いに最も離れた二つの照明光源を点灯させる。これにより、この視線検出装置は、画像上でのプルキンエ像間の間隔をできるだけ大きくすることができるので、視線方向の検出精度をより向上させることができる。   As described above, this line-of-sight detection apparatus is configured so that the Purkinje image appears on the image based on the predicted line-of-sight direction of the illumination light source to be turned on among the plurality of illumination light sources, that is, the Purkinje image. Is selected so that the line-of-sight direction can be detected. At this time, the line-of-sight detection device includes an illumination light source that is turned on so that the Purkinje image of the illumination light source to be turned on is displayed on the image for both the line-of-sight direction predicted for the next frame and the line-of-sight direction detected for the current frame. select. As a result, this gaze detection apparatus can make the Purkinje image always appear on the image, so that the gaze direction detection accuracy can be improved. When there are three or more illumination light sources in which the Purkinje image appears on the image, the line-of-sight detection device turns on the two illumination light sources that are farthest from each other among the three or more illumination light sources. Thereby, since this gaze detection apparatus can enlarge the space | interval between Purkinje images on an image as much as possible, it can improve the detection accuracy of a gaze direction more.

変形例によれば、視線検出装置は、フレームごとに、複数の照明光源のうちの一つだけを点灯させ、その他を消灯するようにしてもよい。この場合には、視線検出部21は、赤外カメラ4により生成された画像が得られる度に、図10のステップS203において、一つのプルキンエ像を用いて視線方向を検出する方法に従ってユーザの視線方向を検出すればよい。   According to the modification, the line-of-sight detection device may turn on only one of the plurality of illumination light sources and turn off the others for each frame. In this case, every time an image generated by the infrared camera 4 is obtained, the line-of-sight detection unit 21 detects the user's line-of-sight according to the method of detecting the line-of-sight direction using one Purkinje image in step S203 of FIG. What is necessary is just to detect a direction.

また、光源制御部24は、視線検出処理が開始された直後、図9のステップS102において、予め設定された一つの照明光源を点灯させる。そして光源制御部24は、視線方向の予測結果が得られるまでは、図9のステップS103において、最新の視線方向の検出結果に基づいて、点灯モデルを参照して、検出された視線方向が検出可能範囲に含まれる一つの照明光源を点灯させる。そして光源制御部24は、視線方向の予測結果が得られると、図10のステップS201にて、点灯モデルを参照して、予測された視線方向と最新の視線方向の何れもが検出可能範囲内に含まれる一つの照明光源を点灯させればよい。   Further, immediately after the line-of-sight detection process is started, the light source control unit 24 turns on one preset illumination light source in step S102 of FIG. Then, the light source control unit 24 detects the detected gaze direction by referring to the lighting model based on the latest gaze direction detection result in step S103 of FIG. 9 until the gaze direction prediction result is obtained. One illumination light source included in the possible range is turned on. Then, when the prediction result of the line-of-sight direction is obtained, the light source control unit 24 refers to the lighting model in step S201 of FIG. 10, and both the predicted line-of-sight direction and the latest line-of-sight direction are within the detectable range. One illumination light source included in the light source may be turned on.

この変形例による視線検出装置も、上記の実施形態による視線検出装置と同様に、赤外カメラ4により得られる画像上にプルキンエ像が写るように、複数の照明光源のなかから点灯する照明光源を選択するので、視線方向の検出精度を向上できる。   Similarly to the line-of-sight detection apparatus according to the above-described embodiment, the line-of-sight detection apparatus according to this modification also uses an illumination light source that is turned on from among a plurality of illumination light sources so that a Purkinje image is captured on an image obtained by the infrared camera 4. Since the selection is made, the detection accuracy of the line-of-sight direction can be improved.

また、他の変形例によれば、光源制御部24は、最新の画像から検出された視線方向によらず、赤外カメラ4による次回撮影時において予測されたユーザの視線方向が含まれる検出可能範囲に対応する照明光源を、次回撮影時に点灯させてもよい。これにより、特に、視線方向が、速く、かつ、大きく移動している場合でも、視線検出装置は、画像上にプルキンエ像が写る照明光源を点灯させることができる。なお、光源制御部24は、現フレームの検出された視線方向と次フレームの予測された視線方向の差に基づいて、点灯させる照明光源の選択方法を切り替えてもよい。例えば、光源制御部24は、現フレームの検出された視線方向と次フレームの予測された視線方向間の差分絶対値を所定の閾値と比較してもよい。そして光源制御部24は、差分絶対値が所定の閾値よりも大きければ、最新の画像から検出された視線方向によらず、赤外カメラ4による次回撮影時において予測されたユーザの視線方向が含まれる検出可能範囲に対応する照明光源を、次回撮影時に点灯させる。一方、光源制御部24は、差分絶対値が所定の閾値以下であれば、最新の画像から検出された視線方向と次回撮影時において予測されたユーザの視線方向の両方が含まれる検出可能範囲に対応する照明光源を、次回撮影時に点灯させればよい。   Further, according to another modification, the light source control unit 24 can detect that the line-of-sight direction of the user predicted at the next shooting by the infrared camera 4 is included regardless of the line-of-sight direction detected from the latest image. The illumination light source corresponding to the range may be turned on at the next shooting. As a result, the line-of-sight detection device can turn on the illumination light source in which the Purkinje image appears on the image, particularly even when the line-of-sight direction is moving fast and greatly. Note that the light source control unit 24 may switch the method of selecting the illumination light source to be lit based on the difference between the detected gaze direction of the current frame and the predicted gaze direction of the next frame. For example, the light source control unit 24 may compare the absolute difference between the detected gaze direction of the current frame and the predicted gaze direction of the next frame with a predetermined threshold value. Then, if the absolute difference value is larger than the predetermined threshold, the light source control unit 24 includes the user's line-of-sight direction predicted at the next shooting by the infrared camera 4 regardless of the line-of-sight direction detected from the latest image. The illumination light source corresponding to the detectable range is turned on at the next shooting. On the other hand, if the difference absolute value is equal to or smaller than a predetermined threshold, the light source control unit 24 falls within a detectable range that includes both the line-of-sight direction detected from the latest image and the user's line-of-sight direction predicted at the next shooting. The corresponding illumination light source may be turned on at the next shooting.

さらに、他の変形例によれば、点灯モデルは、照明光源ごとの検出可能範囲に相当する視線方向の範囲を表していてもよい。この場合も、光源制御部24は、点灯モデルを参照して、予測された視線方向及び現フレームの検出された視線方向が検出可能範囲に含まれる照明光源を特定すればよい。   Furthermore, according to another modification, the lighting model may represent a range in the line-of-sight direction corresponding to a detectable range for each illumination light source. Also in this case, the light source control unit 24 may identify an illumination light source that includes the predicted line-of-sight direction and the detected line-of-sight direction of the current frame within the detectable range with reference to the lighting model.

上記の実施形態またはその変形例による視線検出装置のプロセッサの機能を実現するコンピュータプログラムは、磁気記録媒体、光記録媒体といったコンピュータ読み取り可能な記録媒体に記録された形で提供されてもよい。なお、この記録媒体には、搬送波は含まれない。   The computer program that realizes the function of the processor of the line-of-sight detection device according to the above-described embodiment or its modification may be provided in a form recorded on a computer-readable recording medium such as a magnetic recording medium or an optical recording medium. This recording medium does not include a carrier wave.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことをコンピュータに実行させるための視線検出用コンピュータプログラム。
(付記2)
前記照明光源を点灯させることは、前記複数の照明光源のうち、最新の前記画像から検出された前記ユーザの視線方向と前記予測されたユーザの視線方向の両方が含まれる前記検出可能範囲に対応する少なくとも一つの照明光源を点灯させる、付記1に記載の視線検出用コンピュータプログラム。
(付記3)
前記照明光源を点灯させることは、前記複数の照明光源のうち、最新の前記画像から検出された前記ユーザの視線方向と前記予測されたユーザの視線方向の両方が含まれる前記検出可能範囲に対応する照明光源が3個以上ある場合、当該3個以上の照明光源のうちの最も離れた二つの照明光源を点灯させる、付記2に記載の視線検出用コンピュータプログラム。
(付記4)
前記照明光源を点灯させることは、前記複数の照明光源のうち、前記予測されたユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源のうちの二つを点灯させる、付記1に記載の視線検出用コンピュータプログラム。
(付記5)
前記照明光源を点灯させることは、前記複数の照明光源のうち、前記予測されたユーザの視線方向が含まれる前記検出可能範囲に対応する前記照明光源が3個以上ある場合、当該3個以上の照明光源のうちの最も離れた二つの照明光源を点灯させる、付記4に記載の視線検出用コンピュータプログラム。
(付記6)
撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことを含む視線検出方法。
(付記7)
撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出する視線検出部と、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測する予測部と、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる光源制御部と、
を有する視線検出装置。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A computer program for eye-gaze detection for causing a computer to execute the above.
(Appendix 2)
Turning on the illumination light source corresponds to the detectable range including both the user's line-of-sight direction detected from the latest image and the predicted user's line-of-sight direction among the plurality of illumination light sources. The computer program for eye-gaze detection according to appendix 1, wherein at least one illumination light source is turned on.
(Appendix 3)
Turning on the illumination light source corresponds to the detectable range including both the user's line-of-sight direction detected from the latest image and the predicted user's line-of-sight direction among the plurality of illumination light sources. The computer program for eye-gaze detection according to appendix 2, wherein when there are three or more illumination light sources to be turned on, the two most distant illumination light sources among the three or more illumination light sources are turned on.
(Appendix 4)
The lighting of the illumination light source turns on two of the illumination light sources corresponding to the detectable range including the predicted user's line-of-sight direction among the plurality of illumination light sources. Computer program for eye gaze detection.
(Appendix 5)
Turning on the illumination light source means that, when there are three or more illumination light sources corresponding to the detectable range including the predicted user's line-of-sight direction, the three or more illumination light sources. The computer program for line-of-sight detection according to appendix 4, which turns on the two most distant illumination light sources among the illumination light sources.
(Appendix 6)
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A gaze detection method including the above.
(Appendix 7)
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. A gaze detection unit that detects the gaze direction of the user based on the pupil region and the corneal reflection image;
A predicting unit that predicts the user's line-of-sight direction at the next shooting of the imaging unit based on the user's line-of-sight direction detected from each of the at least two images generated at different timings;
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is A light source control unit that turns on at least one of the illumination light sources corresponding to the included detectable range at the next imaging of the imaging unit;
A line-of-sight detection apparatus comprising:

1 デジタルサイネージシステム(視線検出装置)
2 表示装置
3−1〜3−n 照明光源
4 赤外カメラ
5 入力装置
6 記憶媒体アクセス装置
7 メモリ
8 プロセッサ
9 記憶媒体
10 筐体
21 視線検出部
22 注視位置推定部
23 予測部
24 光源制御部
1 Digital signage system (Gaze detection device)
2 Display device 3-1 to 3-n Illumination light source 4 Infrared camera 5 Input device 6 Storage medium access device 7 Memory 8 Processor 9 Storage medium 10 Case 21 Gaze detection unit 22 Gaze position estimation unit 23 Prediction unit 24 Light source control unit

Claims (5)

撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことをコンピュータに実行させるための視線検出用コンピュータプログラム。
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A computer program for eye-gaze detection for causing a computer to execute the above.
前記照明光源を点灯させることは、前記複数の照明光源のうち、最新の前記画像から検出された前記ユーザの視線方向と前記予測されたユーザの視線方向の両方が含まれる前記検出可能範囲に対応する少なくとも一つの照明光源を点灯させる、請求項1に記載の視線検出用コンピュータプログラム。   Turning on the illumination light source corresponds to the detectable range including both the user's line-of-sight direction detected from the latest image and the predicted user's line-of-sight direction among the plurality of illumination light sources. The computer program for eye gaze detection according to claim 1, wherein at least one illumination light source is turned on. 前記照明光源を点灯させることは、前記複数の照明光源のうち、最新の前記画像から検出された前記ユーザの視線方向と前記予測されたユーザの視線方向の両方が含まれる前記検出可能範囲に対応する照明光源が3個以上ある場合、当該3個以上の照明光源のうちの最も離れた二つの照明光源を点灯させる、請求項2に記載の視線検出用コンピュータプログラム。   Turning on the illumination light source corresponds to the detectable range including both the user's line-of-sight direction detected from the latest image and the predicted user's line-of-sight direction among the plurality of illumination light sources. The computer program for line-of-sight detection according to claim 2, wherein when there are three or more illumination light sources to be turned on, the two most distant illumination light sources among the three or more illumination light sources are turned on. 撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことを含む視線検出方法。
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A gaze detection method including the above.
撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出する視線検出部と、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測する予測部と、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる光源制御部と、
を有する視線検出装置。
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. A gaze detection unit that detects the gaze direction of the user based on the pupil region and the corneal reflection image;
A predicting unit that predicts the user's line-of-sight direction at the next shooting of the imaging unit based on the user's line-of-sight direction detected from each of the at least two images generated at different timings;
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is A light source control unit that turns on at least one of the illumination light sources corresponding to the included detectable range at the next imaging of the imaging unit;
A line-of-sight detection apparatus comprising:
JP2017102612A 2017-05-24 2017-05-24 Gaze detection computer program, gaze detection device and gaze detection method Active JP6870474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017102612A JP6870474B2 (en) 2017-05-24 2017-05-24 Gaze detection computer program, gaze detection device and gaze detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017102612A JP6870474B2 (en) 2017-05-24 2017-05-24 Gaze detection computer program, gaze detection device and gaze detection method

Publications (2)

Publication Number Publication Date
JP2018197974A true JP2018197974A (en) 2018-12-13
JP6870474B2 JP6870474B2 (en) 2021-05-12

Family

ID=64663113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017102612A Active JP6870474B2 (en) 2017-05-24 2017-05-24 Gaze detection computer program, gaze detection device and gaze detection method

Country Status (1)

Country Link
JP (1) JP6870474B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE1950825A1 (en) * 2019-06-28 2020-12-29 Tobii Ab Method and system for 3d cornea position estimation
CN112926521A (en) * 2021-03-30 2021-06-08 青岛小鸟看看科技有限公司 Eyeball tracking method and system based on light source on-off
WO2022044395A1 (en) * 2020-08-24 2022-03-03 株式会社Jvcケンウッド Sight line detection device, sight line detection method, and sight line detection program
WO2022080058A1 (en) * 2020-10-13 2022-04-21 ソニーグループ株式会社 Gaze detection device, display device, and method for sensing eyeball
CN116052264A (en) * 2023-03-31 2023-05-02 广州视景医疗软件有限公司 Sight estimation method and device based on nonlinear deviation calibration

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE1950825A1 (en) * 2019-06-28 2020-12-29 Tobii Ab Method and system for 3d cornea position estimation
SE543455C2 (en) * 2019-06-28 2021-02-23 Tobii Ab Method and system for 3d cornea position estimation
WO2022044395A1 (en) * 2020-08-24 2022-03-03 株式会社Jvcケンウッド Sight line detection device, sight line detection method, and sight line detection program
WO2022080058A1 (en) * 2020-10-13 2022-04-21 ソニーグループ株式会社 Gaze detection device, display device, and method for sensing eyeball
CN112926521A (en) * 2021-03-30 2021-06-08 青岛小鸟看看科技有限公司 Eyeball tracking method and system based on light source on-off
CN112926521B (en) * 2021-03-30 2023-01-24 青岛小鸟看看科技有限公司 Eyeball tracking method and system based on light source on-off
US11863875B2 (en) 2021-03-30 2024-01-02 Qingdao Pico Technology Co., Ltd Eyeball tracking method and system based on on-off of light sources
CN116052264A (en) * 2023-03-31 2023-05-02 广州视景医疗软件有限公司 Sight estimation method and device based on nonlinear deviation calibration

Also Published As

Publication number Publication date
JP6870474B2 (en) 2021-05-12

Similar Documents

Publication Publication Date Title
JP6056323B2 (en) Gaze detection device, computer program for gaze detection
US11341711B2 (en) System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
JP6930223B2 (en) Pupil detection computer program, pupil detection device and pupil detection method
JP5949319B2 (en) Gaze detection apparatus and gaze detection method
US9693684B2 (en) Systems and methods of eye tracking calibration
JP2017182739A (en) Gaze detection device, gaze detection method and computer program for gaze detection
US8947351B1 (en) Point of view determinations for finger tracking
US8942434B1 (en) Conflict resolution for pupil detection
US10528131B2 (en) Method to reliably detect correlations between gaze and stimuli
JP5655644B2 (en) Gaze detection apparatus and gaze detection method
US20140111632A1 (en) Pupil detection device
JP6604271B2 (en) Gaze position detection device, gaze position detection method, and computer program for gaze position detection
JP2018205819A (en) Gazing position detection computer program, gazing position detection device, and gazing position detection method
US20220100268A1 (en) Eye tracking device and a method thereof
JP5621456B2 (en) Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal
US10475415B1 (en) Strobe tracking of head-mounted displays (HMDs) in virtual, augmented, and mixed reality (xR) applications
CN112753037A (en) Sensor fusion eye tracking
KR100960269B1 (en) Apparatus of estimating user's gaze and the method thereof
US20210153794A1 (en) Evaluation apparatus, evaluation method, and evaluation program
KR20140014868A (en) Gaze tracking apparatus and method
JP2018120299A (en) Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method
WO2019221724A1 (en) Method to reliably detect correlations between gaze and stimuli
CN110858095A (en) Electronic device capable of being controlled by head and operation method thereof
JP6575353B2 (en) Gaze detection device, gaze detection method, and computer program for gaze detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210329

R150 Certificate of patent or registration of utility model

Ref document number: 6870474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150