JP5601179B2 - Gaze detection apparatus and gaze detection method - Google Patents

Gaze detection apparatus and gaze detection method Download PDF

Info

Publication number
JP5601179B2
JP5601179B2 JP2010268282A JP2010268282A JP5601179B2 JP 5601179 B2 JP5601179 B2 JP 5601179B2 JP 2010268282 A JP2010268282 A JP 2010268282A JP 2010268282 A JP2010268282 A JP 2010268282A JP 5601179 B2 JP5601179 B2 JP 5601179B2
Authority
JP
Japan
Prior art keywords
image
face
user
line
original images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010268282A
Other languages
Japanese (ja)
Other versions
JP2012115505A (en
Inventor
拓也 上村
浩寧 吉川
由樹雄 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010268282A priority Critical patent/JP5601179B2/en
Publication of JP2012115505A publication Critical patent/JP2012115505A/en
Application granted granted Critical
Publication of JP5601179B2 publication Critical patent/JP5601179B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば、角膜反射像を検出することにより視線方向を検出する視線検出装置及び視線検出方法に関する。   The present invention relates to a gaze detection apparatus and a gaze detection method that detect a gaze direction by detecting, for example, a cornea reflection image.

従来より、ユーザの眼を撮影した画像を解析することにより光源の角膜反射像(プルキンエ像)を検出することで、ユーザの視線方向を検出する視線検出装置が開発されている。このような視線検出装置は、プルキンエ像を検出できなければ、視線方向を検出することができない。そのため、プルキンエ像が画像上で識別可能なように、ユーザの眼を撮影するカメラの露光量が適切に調節されることが好ましい。   2. Description of the Related Art Conventionally, a line-of-sight detection device that detects a user's line-of-sight direction by detecting a cornea reflection image (Purkinje image) of a light source by analyzing an image obtained by photographing a user's eyes has been developed. Such a gaze detection device cannot detect the gaze direction unless it can detect the Purkinje image. Therefore, it is preferable that the exposure amount of the camera that captures the user's eyes is appropriately adjusted so that the Purkinje image can be identified on the image.

しかし、視線検出装置が搭載された装置は、屋内のように環境光による照度がある程度一定に保たれる環境で利用されるとは限らない。例えば、そのような装置が屋外で使用される場合、ユーザの顔に太陽光が当たったり、太陽光が直接カメラに入射することもある。このような場合、ユーザの眼の輝度よりもその他の部分の輝度の方が非常に高くなるので、その他の部分に合わせて露光量が調節されると、プルキンエ像及びその周囲については露光量が不足する。その結果、画像上でプルキンエ像が識別できなくなる。一方、視線検出装置が、ユーザの顔を照明するのに十分な光量を持つ光を発する照明光源を有していれば、環境光の明るさにかかわらずに、プルキンエ像と顔全体を識別できる画像を生成することができる。しかし、そのような光源は消費電力が大きく、また大きな光量を持つ光をユーザの顔、特に眼に向けて照射することは危険を伴うので好ましくない。   However, a device equipped with a line-of-sight detection device is not always used in an environment where the illuminance by ambient light is kept constant to some extent, such as indoors. For example, when such a device is used outdoors, sunlight may strike the user's face or sunlight may directly enter the camera. In such a case, the brightness of the other part is much higher than the brightness of the user's eyes. Therefore, when the exposure amount is adjusted according to the other part, the exposure amount is about the Purkinje image and its surroundings. Run short. As a result, the Purkinje image cannot be identified on the image. On the other hand, if the line-of-sight detection device has an illumination light source that emits light having a sufficient amount of light to illuminate the user's face, the Purkinje image and the entire face can be identified regardless of the brightness of the ambient light. An image can be generated. However, such a light source consumes a large amount of power, and it is not preferable to irradiate a user's face, particularly eyes, with light having a large amount of light because it involves danger.

そこで、露光量が相対的に少ない第1の画像からユーザの顔の輪郭などを検出することで顔向きを検出し、一方、露光量が相対的に多い第2の画像に写ったユーザの眼の情報を用いて視線方向を検出する技術が提案されている(例えば、特許文献1を参照)。   Therefore, the face direction is detected by detecting the contour of the user's face from the first image with a relatively small amount of exposure, while the user's eyes appear in the second image with a relatively large amount of exposure. There has been proposed a technique for detecting the line-of-sight direction using the above information (see, for example, Patent Document 1).

特開2009−276849号公報JP 2009-276849 A

しかしながら、第1の画像または第2の画像の撮影時の露光量が適切でなければ、それらの画像から顔の輪郭または眼を検出することが困難となる。そのため、露光量が不適切な場合には、視線検出装置は、例えば、電子シャッタの開放時間または撮像素子のゲインを調節した上で、ユーザの顔を再撮影しなければならないおそれがあった。そして再撮影が行われた場合、視線検出に要する処理時間が、その再撮影に要する期間だけ長くなる。処理時間が長くなることは、特に、できるだけリアルタイムで視線方向を知ることが求められるアプリケーションにとって好ましくない。   However, if the exposure amount at the time of shooting the first image or the second image is not appropriate, it is difficult to detect the face outline or eyes from these images. Therefore, when the exposure amount is inappropriate, the visual line detection device may have to re-photograph the user's face after adjusting the opening time of the electronic shutter or the gain of the image sensor, for example. When re-photographing is performed, the processing time required for eye-gaze detection is increased by the period required for re-photographing. Longer processing time is not preferable especially for applications that require the gaze direction to be known in real time as much as possible.

そこで本明細書は、周囲環境の明るさによらずにユーザの視線方向を検出できるとともに、視線検出に要する処理時間の増加を抑制可能な視線検出装置を提供することを目的とする。   In view of this, it is an object of the present specification to provide a gaze detection apparatus that can detect a user's gaze direction regardless of the brightness of the surrounding environment and can suppress an increase in processing time required for gaze detection.

一つの実施形態によれば、視線検出装置が提供される。この視線検出装置は、ユーザの顔を照明する光源と、所定の露出条件でユーザの顔を複数回撮影することにより複数の原画像を生成する撮像部と、第1の数の原画像を合成することにより第1の合成画像を生成し、かつ、第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成する画像生成部と、第1の合成画像からユーザの顔を検出する顔検出部と、第2の合成画像からユーザの瞳孔及び光源のプルキンエ像を検出するプルキンエ像検出部と、ユーザの瞳孔と光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する視線検出部とを有する。   According to one embodiment, a line-of-sight detection device is provided. The line-of-sight detection device combines a light source that illuminates a user's face, an imaging unit that generates a plurality of original images by photographing the user's face multiple times under a predetermined exposure condition, and a first number of original images. An image generation unit that generates a first composite image and generates a second composite image by combining a second number of original images greater than the first number; Based on the positional relationship between the face detection unit for detecting the user's face from the image, the Purkinje image detection unit for detecting the Purkinje image of the user's pupil and light source from the second composite image, and the Purkinje image of the user's pupil and light source A line-of-sight detection unit that detects the line-of-sight direction of the user.

本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示された視線検出装置は、周囲環境の明るさによらずにユーザの視線方向を検出できるとともに、視線検出に要する処理時間の増加を抑制できる。   The line-of-sight detection device disclosed in this specification can detect the user's line-of-sight direction regardless of the brightness of the surrounding environment, and can suppress an increase in processing time required for line-of-sight detection.

一つの実施形態による視線検出装置のハードウェア構成図である。It is a hardware block diagram of the gaze detection apparatus by one Embodiment. 制御部の機能ブロック図である。It is a functional block diagram of a control part. (a)は合成に用いた原画像の枚数が相対的に少ない第1の合成画像の一例を示す図であり、(b)は(a)に示した第1の合成画像における眼の部分を拡大した図である。(A) is a figure which shows an example of the 1st synthetic | combination image with the relatively few number of the original images used for the synthesis | combination, (b) is the eye part in the 1st synthetic | combination image shown to (a). FIG. (a)は合成に用いた原画像の枚数が相対的に多い第2の画像の一例を示す図であり、(b)は(a)に示した第2の合成画像における眼の部分を拡大した図である。(A) is a figure which shows an example of the 2nd image with relatively many original images used for the synthesis | combination, (b) is an eye part expansion in the 2nd synthesized image shown to (a). FIG. 参照テーブルの一例を示す図である。It is a figure which shows an example of a reference table. 視線検出処理の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a gaze detection process. 視線検出処理の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a gaze detection process.

以下、図を参照しつつ、一つの実施形態による、視線検出装置について説明する。
この視線検出装置は、周囲の環境が明るい条件でも顔の輪郭が検出できるような少ない露光量が想定される露出条件でユーザの顔を複数回撮影することにより複数の原画像を作成する。そしてこの視線検出装置は、相対的に少ない枚数の原画像を合成した第1の合成画像からユーザの顔の輪郭または部位を検出することで、ユーザの顔を検出する。一方、この視線検出装置は、相対的に多い枚数の原画像を合成した第2の合成画像からプルキンエ像及び瞳孔の重心を検出することでユーザの視線方向を検出する。
なお、合成とは、例えば、複数画像間での対応画素の輝度値の加算値を算出し、加算値を合成画像上の対応画素に設定するものである。また、加算において、輝度値の加算値が画素の輝度値の上限値以上となる場合は、その上限値を合成画像上の対応画素の輝度値とする。
Hereinafter, a gaze detection apparatus according to one embodiment will be described with reference to the drawings.
This line-of-sight detection device creates a plurality of original images by photographing a user's face a plurality of times under an exposure condition that is assumed to have a small exposure amount so that the outline of the face can be detected even under a bright surrounding environment. The line-of-sight detection apparatus detects the user's face by detecting the contour or part of the user's face from the first synthesized image obtained by synthesizing a relatively small number of original images. On the other hand, this gaze detection apparatus detects the user's gaze direction by detecting the Purkinje image and the center of gravity of the pupil from the second synthesized image obtained by synthesizing a relatively large number of original images.
Note that the synthesis is, for example, calculating an addition value of luminance values of corresponding pixels between a plurality of images and setting the addition value to the corresponding pixel on the synthesized image. In addition, when the addition value of the luminance value is equal to or higher than the upper limit value of the luminance value of the pixel in the addition, the upper limit value is set as the luminance value of the corresponding pixel on the composite image.

本実施形態による視線検出装置は、ユーザの視線方向を利用する様々な装置に実装される。例えば、視線検出装置は、携帯端末または車載運転支援装置に実装される。視線検出装置が携帯端末に実装される場合、例えば、携帯端末は、視線検出装置から受け取ったユーザの視線方向に関する情報に基づいて、携帯端末が有するディスプレイ上でユーザが注視する位置を特定し、その位置に表示されたアイコンに応じた処理を実行する。   The line-of-sight detection apparatus according to the present embodiment is mounted on various apparatuses that use the user's line-of-sight direction. For example, the line-of-sight detection device is mounted on a mobile terminal or an in-vehicle driving support device. When the line-of-sight detection device is mounted on a mobile terminal, for example, the mobile terminal specifies the position where the user gazes on the display of the mobile terminal based on information about the user's line-of-sight direction received from the line-of-sight detection device, A process corresponding to the icon displayed at the position is executed.

また、視線検出装置が車載運転支援装置に実装される場合、例えば、その運転支援装置は、視線検出装置から受け取ったユーザの視線方向に関する情報に基づいて、ユーザの視線方向が車両前方の所定範囲から外れているか否か判定する。そして、車両が前進している間の一定期間に渡ってユーザの視線方向がその所定範囲から外れていれば、運転支援装置は、ユーザが余所見していると判定し、スピーカなどを通じてユーザに警報音を発する。さらに、運転支援装置は、視線検出装置からユーザの顔の向きに関する情報を受け取り、その情報に基づいてユーザが横を向いているか否かを判定し、ユーザが横を向いている場合に警報音を発するようにしてもよい。   Further, when the line-of-sight detection device is mounted on an in-vehicle driving support device, for example, the driving support device is configured so that the user's line-of-sight direction is a predetermined range in front of the vehicle based on information about the user's line-of-sight received from the line-of-sight detection device It is determined whether it is off. If the user's line-of-sight direction deviates from the predetermined range over a certain period while the vehicle is moving forward, the driving support device determines that the user is looking around and alerts the user through a speaker or the like. Make a sound. Further, the driving support device receives information on the face direction of the user from the line-of-sight detection device, determines whether or not the user is facing side based on the information, and warns when the user is facing sideways. May be issued.

図1は、一つの実施形態による視線検出装置のハードウェア構成図である。視線検出装置1は、光源2と、カメラ3と、インターフェース部4と、メモリ5と、制御部6とを有する。なお、図1は、視線検出装置1が有する構成要素を説明するための図であり、視線検出装置1の各構成要素の実際の配置を表した図ではないことに留意されたい。例えば、視線検出装置1が有する各構成要素は、一つの筺体内に収容されていてもよく、一部の構成要素が他の構成要素とは別個に配置されてもよい。例えば、視線検出装置1が車載運転支援装置に実装される場合、光源2は、インスツルメントパネルまたは車室内前方の天井付近においてユーザへ向けて光を発するように取り付けられる。またカメラ3も、例えば、インスツルメントパネルまたは車室内前方の天井付近に、ユーザの方を向けて取り付けられる。そして光源2及びカメラ3は、信号線を介して、インターフェース部4、メモリ5及び制御部6が実装され、インスツルメントパネルの裏側に配置された回路基板と接続されてもよい。   FIG. 1 is a hardware configuration diagram of a line-of-sight detection device according to one embodiment. The line-of-sight detection device 1 includes a light source 2, a camera 3, an interface unit 4, a memory 5, and a control unit 6. Note that FIG. 1 is a diagram for explaining components included in the line-of-sight detection device 1, and is not a diagram showing an actual arrangement of each component of the line-of-sight detection device 1. For example, each component included in the line-of-sight detection device 1 may be accommodated in one casing, and some components may be arranged separately from other components. For example, when the line-of-sight detection device 1 is mounted on an in-vehicle driving support device, the light source 2 is attached so as to emit light toward the user near the instrument panel or the ceiling in front of the vehicle interior. The camera 3 is also attached, for example, near an instrument panel or a ceiling in front of the passenger compartment with the user facing. The light source 2 and the camera 3 may be connected to a circuit board disposed on the back side of the instrument panel by mounting the interface unit 4, the memory 5, and the control unit 6 via signal lines.

光源2は、ユーザの顔、特に眼及びその周囲を照明する。そのため、光源2は、例えば、少なくとも一つの赤外発光ダイオードと、制御部6からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。そして光源2は、制御部6から光源を点灯させる制御信号を受信している間、照明光を発する。
なお、視線検出装置1が有する光源2の数は、1個に限られず、複数個であってもよい。
The light source 2 illuminates the user's face, particularly the eyes and surroundings. Therefore, the light source 2 includes, for example, at least one infrared light emitting diode and a drive circuit that supplies power from a power source (not shown) to the infrared light emitting diode in accordance with a control signal from the control unit 6. The light source 2 emits illumination light while receiving a control signal for turning on the light source from the control unit 6.
Note that the number of light sources 2 included in the line-of-sight detection device 1 is not limited to one, and may be plural.

カメラ3は、撮像部の一例であり、ユーザの顔が写った原画像を生成する。そのために、カメラ3は、光源2の光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にユーザの顔の像を結像する撮像光学系を有する。カメラ3は、虹彩による反射像及び光源2以外の光源からの光の角膜反射像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。またカメラ3は、原画像上で、ユーザの角膜に光源2の像が写るように配置される。   The camera 3 is an example of an imaging unit, and generates an original image in which a user's face is shown. For this purpose, the camera 3 has an image sensor having a solid-state imaging device arranged in a two-dimensional manner having sensitivity to light from the light source 2 and an imaging optical system that forms an image of the user's face on the image sensor. . The camera 3 further includes a visible light cut filter between the image sensor and the imaging optical system in order to suppress detection of a reflection image by the iris and a corneal reflection image of light from a light source other than the light source 2. May be. The camera 3 is arranged so that an image of the light source 2 appears on the user's cornea on the original image.

また、画像が光源2のプルキンエ像を識別できる程度の解像度を有するように、カメラ3のイメージセンサの画素数は、例えば、100万、200万、あるいは400万とすることができる。またイメージセンサにより生成される画像はカラー画像であり、画素ごとに赤色(R)、緑色(G)及び青色(B)の3色の成分を持つ。各色成分は、例えば、0〜255の何れかの値をとり、色成分値が大きいほど、その色の輝度が高い。あるいは、イメージセンサにより生成される画像は、光の強度が強いほど各画素の輝度が高くなるモノクロ画像であってもよい。   Further, the number of pixels of the image sensor of the camera 3 can be set to, for example, 1 million, 2 million, or 4 million so that the image has a resolution that can identify the Purkinje image of the light source 2. An image generated by the image sensor is a color image, and each pixel has three color components of red (R), green (G), and blue (B). Each color component takes any value from 0 to 255, for example. The larger the color component value, the higher the luminance of the color. Alternatively, the image generated by the image sensor may be a monochrome image in which the luminance of each pixel increases as the light intensity increases.

カメラ3は、視線検出処理が実行されている間、制御部6から通知された所定の周期及び所定の露出条件で連続的にユーザの顔を撮影することにより、ユーザの顔が写った原画像を複数生成する。カメラ3は、原画像を生成する度に、生成した原画像を制御部6へ出力する。   While the line-of-sight detection process is being performed, the camera 3 continuously captures the user's face with a predetermined period and a predetermined exposure condition notified from the control unit 6, so that an original image showing the user's face is captured. Generate multiple. The camera 3 outputs the generated original image to the control unit 6 every time an original image is generated.

インターフェース部4は、視線検出装置1を、他の機器、例えば、視線検出装置1が実装された装置と接続するためのインターフェース回路を有する。例えば、視線検出装置1が車載運転支援装置に実装されている場合、インターフェース部4は、例えば、コントロールエリアネットワーク(Controller Area Network, CAN)に準じた通信回線を介して信号を送信または受信するための回路を有する。そしてインターフェース部4は、例えば、制御部6から受け取った、ユーザの視線方向または顔向きに関する情報を、CANを介して視線検出装置1と接続されている車載運転支援装置の制御基板へ送信する。   The interface unit 4 includes an interface circuit for connecting the line-of-sight detection device 1 to another device, for example, a device on which the line-of-sight detection device 1 is mounted. For example, when the line-of-sight detection device 1 is mounted on an in-vehicle driving support device, the interface unit 4 transmits or receives a signal via a communication line conforming to a control area network (CAN), for example. Circuit. And the interface part 4 transmits the information regarding a user's gaze direction or face direction received from the control part 6, for example to the control board of the vehicle-mounted driving assistance apparatus connected with the gaze detection apparatus 1 via CAN.

メモリ5は、例えば、読み書き可能な不揮発性の半導体メモリを有する。そしてメモリ5は、制御部6上で実行される視線検出処理のプログラムを記憶する。またメモリ5は、例えば、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザの視線方向との関係を表す視線方向参照テーブルなど、ユーザの視線方向またはユーザの顔を検出するために利用される各種のデータを記憶する。
またメモリ5は、直近に撮影された所定枚数の原画像と、ユーザの顔などの検出に用いられる第1の合成画像と、瞳孔及びプルキンエ像の検出に用いられる第2の合成画像とを記憶する。なお、所定枚数は、例えば、第2の合成画像の生成に利用される原画像の最大数である。なお、合成画像の詳細については後述する。
The memory 5 includes, for example, a readable / writable nonvolatile semiconductor memory. The memory 5 stores a program for eye gaze detection processing executed on the control unit 6. The memory 5 is used to detect the user's line-of-sight direction or the user's face, such as a line-of-sight direction reference table that represents the relationship between the pupil's center of gravity relative to the center of gravity of the Purkinje image and the user's line-of-sight direction. Various types of data are stored.
The memory 5 stores a predetermined number of original images taken most recently, a first composite image used for detecting a user's face and the like, and a second composite image used for detecting a pupil and Purkinje image. To do. Note that the predetermined number is, for example, the maximum number of original images used for generating the second composite image. Details of the composite image will be described later.

制御部6は、一つまたは複数のプロセッサ及びその周辺回路を有し、視線検出装置1の各部と信号線を通じて接続されている。そして制御部6は、視線検出装置1の各部へ信号線を通じて制御信号を送信することで視線検出装置1の各部を制御する。
制御部6は、ユーザの視線方向の情報を用いるアプリケーションが、視線検出装置1が実装されている装置で実行されている間、視線方向検出処理を実行する。また制御部6は、視線検出装置1の起動時、あるいは上記のようなアプリケーションの起動時など、特定のタイミングにおいて、光源のプルキンエ像と瞳孔重心との相対的な位置関係とユーザの視線方向との関係を求めるキャリブレーション処理を実行する。
The control unit 6 includes one or a plurality of processors and their peripheral circuits, and is connected to each unit of the visual line detection device 1 through a signal line. And the control part 6 controls each part of the visual line detection apparatus 1 by transmitting a control signal to each part of the visual line detection apparatus 1 through a signal line.
The control unit 6 executes the gaze direction detection process while the application using the information on the gaze direction of the user is being executed on the device on which the gaze detection device 1 is mounted. In addition, the control unit 6 determines the relative positional relationship between the Purkinje image of the light source and the center of the pupil and the user's line-of-sight direction at a specific timing, such as when the line-of-sight detection device 1 is started or when the above-described application is started. A calibration process for obtaining the relationship is executed.

図2は、制御部6の機能ブロック図である。制御部6は、光源制御部11と、カメラ制御部12と、画像生成部13と、顔検出部14と、プルキンエ像検出部15と、視線検出部16と、キャリブレーション部17とを有する。
光源制御部11、カメラ制御部12、画像生成部13、顔検出部14、プルキンエ像検出部15、視線検出部16及びキャリブレーション部17は、制御部6が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。
あるいは、光源制御部11、カメラ制御部12、画像生成部13、顔検出部14、プルキンエ像検出部15、視線検出部16及びキャリブレーション部17は、それぞれ、制御部6が有するプロセッサとは別個の回路として形成されてもよい。あるいは光源制御部11、カメラ制御部12、画像生成部13、顔検出部14、プルキンエ像検出部15、視線検出部16及びキャリブレーション部17は、その各部に対応する回路が集積された一つの集積回路として視線検出装置1に実装されてもよい。
FIG. 2 is a functional block diagram of the control unit 6. The control unit 6 includes a light source control unit 11, a camera control unit 12, an image generation unit 13, a face detection unit 14, a Purkinje image detection unit 15, a line-of-sight detection unit 16, and a calibration unit 17.
The light source control unit 11, the camera control unit 12, the image generation unit 13, the face detection unit 14, the Purkinje image detection unit 15, the line-of-sight detection unit 16, and the calibration unit 17 are computer programs executed on a processor included in the control unit 6. It is a functional module realized by.
Alternatively, the light source control unit 11, the camera control unit 12, the image generation unit 13, the face detection unit 14, the Purkinje image detection unit 15, the line-of-sight detection unit 16, and the calibration unit 17 are each separate from the processor included in the control unit 6. It may be formed as a circuit of Alternatively, the light source control unit 11, the camera control unit 12, the image generation unit 13, the face detection unit 14, the Purkinje image detection unit 15, the line-of-sight detection unit 16, and the calibration unit 17 are integrated with circuits corresponding to the respective units. The line-of-sight detection device 1 may be mounted as an integrated circuit.

光源制御部11は、光源2を点灯または消灯させる。光源制御部11は、例えば、視線検出処理の実行中、光源2を点灯させる。また光源制御部11は、光源2が複数含まれる場合、同時に2個以上の光源が点灯するように各光源へ制御信号を送信してもよい。同時に複数の光源が点灯すると、プルキンエ像にも点灯している複数の光源の像が含まれるので、視線検出装置1は、画像上での輝点の配置パターンが、実際に点灯している光源の配置パターンと一致するか否か調べることができる。そのため、視線検出装置1は、室内灯または太陽など、他の光源の像と視線検出装置1が有する光源の像とを識別し易くなる。   The light source control unit 11 turns on or off the light source 2. For example, the light source control unit 11 turns on the light source 2 during execution of the line-of-sight detection process. In addition, when a plurality of light sources 2 are included, the light source control unit 11 may transmit a control signal to each light source so that two or more light sources are turned on simultaneously. When a plurality of light sources are turned on at the same time, the Purkinje image also includes images of a plurality of light sources that are turned on. Therefore, the line-of-sight detection device 1 uses a light source in which the arrangement pattern of bright spots on the image is actually turned on. It can be checked whether or not it matches the arrangement pattern. Therefore, the line-of-sight detection device 1 can easily distinguish between an image of another light source such as an indoor lamp or the sun and an image of the light source included in the line-of-sight detection device 1.

カメラ制御部12は、カメラ3が撮影する周期及び露出条件を制御する。カメラ制御部12は、例えば、視線検出処理の実行中、ユーザが所定の方向を注視している間にカメラ3が複数回の撮影を行えるような周期、例えば、30m秒〜300m秒周期で、カメラ3に連続的に撮影させる。またカメラ制御部12は、例えば、カメラ3の撮影対象範囲内の平均照度が想定される最大値である場合に原画像上でユーザの顔に相当する画素の輝度値が飽和しない露出条件で、カメラ3に各回の撮影を実行させる。これにより、原画像上では、輝度値の飽和により顔が識別不能となることがない。そのため、制御部6は、第1の合成画像を作成する際に、その合成に利用する原画像の枚数を最初に小さく設定しておき、その後その枚数を増やしていくだけで、ユーザの顔の検出に用いるのに適切な合成画像を作成できる。この露出条件は、例えば、実験的あるいはカメラ3の撮像素子の感度などに基づいて計算により求められる。さらに、露出条件は、第2の合成画像上でプルキンエ像が検出できるように、各原画像において、プルキンエ像及びその周囲の画素が最小輝度値とならないように設定されることが好ましい。   The camera control unit 12 controls the period and exposure conditions that the camera 3 captures. The camera control unit 12 is, for example, in a period in which the camera 3 can take a plurality of times while the user is gazing at a predetermined direction during the line-of-sight detection process, for example, a period of 30 msec to 300 msec. The camera 3 is continuously photographed. The camera control unit 12 is, for example, an exposure condition in which the luminance value of the pixel corresponding to the user's face on the original image does not saturate when the average illuminance within the photographing target range of the camera 3 is a maximum value. The camera 3 is caused to perform each shooting. This prevents the face from becoming unidentifiable on the original image due to saturation of the luminance value. Therefore, when creating the first composite image, the control unit 6 first sets the number of original images to be used for the composition to a small value, and then increases the number to detect the user's face. It is possible to create a composite image suitable for use in the above. This exposure condition is obtained by calculation based on, for example, the sensitivity of the imaging device of the camera 3 or experimentally. Further, the exposure condition is preferably set so that the Purkinje image and surrounding pixels do not have the minimum luminance value in each original image so that the Purkinje image can be detected on the second composite image.

カメラ制御部12は、撮影周期及び露出条件をカメラ3に通知する。なお、露出条件には、例えば、シャッタ速度及びF値が含まれる。またカメラ制御部12は、視線検出処理が開始されると、カメラ3へ撮影を開始させることを指示する制御信号を送信する。一方、カメラ制御部12は、カメラ3から原画像を受け取る度に、その原画像を一旦メモリ5に記憶させる。   The camera control unit 12 notifies the camera 3 of the shooting cycle and exposure conditions. Note that the exposure condition includes, for example, a shutter speed and an F value. In addition, when the line-of-sight detection process is started, the camera control unit 12 transmits a control signal instructing the camera 3 to start shooting. On the other hand, every time an original image is received from the camera 3, the camera control unit 12 temporarily stores the original image in the memory 5.

画像生成部13は、メモリ5に記憶されている第1の積算数の原画像を合成することにより、第1の合成画像を生成する。また画像生成部13は、メモリ5に記憶されている、第1の積算数よりも多い第2の積算数の原画像を合成することにより第2の合成画像を生成する。   The image generation unit 13 generates a first synthesized image by synthesizing the original image of the first cumulative number stored in the memory 5. Further, the image generation unit 13 generates a second composite image by combining the original images having the second integration number larger than the first integration number stored in the memory 5.

各原画像に対する露出条件は一定であるため、合成に用いる原画像の枚数が多いほど、合成画像は、露光量が多い露出条件で撮影された画像と実質的に同じ画像となる。従って、原画像の枚数が少なければ、合成画像上では、原画像において相対的にコントラストが低い領域、例えば、影になっている部分のコントラストは十分な高さにならない。一方、原画像において相対的にコントラストが高い領域、例えば、顔が環境光により照らされている場合の顔の輪郭部分は、合成に用いる原画像の枚数が少ない合成画像上でも十分なコントラストを持つ。そのため、このような原画像の枚数が少ない合成画像は、顔の輪郭及び眼、鼻、口など、比較的周囲との輝度差が大きい部位の検出に適している。   Since the exposure condition for each original image is constant, the greater the number of original images used for composition, the substantially the same image as the image captured under the exposure condition with a larger exposure amount. Therefore, if the number of original images is small, the contrast of an area with relatively low contrast in the original image, for example, a shadowed portion, is not sufficiently high on the composite image. On the other hand, a region having a relatively high contrast in the original image, for example, a face outline portion when the face is illuminated by ambient light, has a sufficient contrast even on a synthesized image in which the number of original images used for synthesis is small. . Therefore, such a composite image with a small number of original images is suitable for detection of a part having a relatively large luminance difference from the surroundings, such as a face outline and eyes, nose and mouth.

一方、合成に用いる原画像の枚数が多い合成画像では、環境光により照らされている領域に含まれる画素の値は飽和してしまう。そのため、例えば、顔が一方から環境光により照らされている場合、合成画像上ではその照らされている領域内の画素の輝度がその取り得る最大値で一定になってしまい、合成画像上でその領域に写っている部位は識別不能になる。しかし、原画像においてコントラストが低い領域では、近傍画素間の輝度差が原画像の枚数に応じて大きくなるので、そのような領域に写っている部位を識別することは容易になる。そのため、原画像の枚数の多い合成画像は、環境光により影になることがある、瞳孔及びプルキンエ像などを検出するのに適している。   On the other hand, in a composite image in which the number of original images used for composition is large, the values of pixels included in the area illuminated by the ambient light are saturated. Therefore, for example, when the face is illuminated by ambient light from one side, the brightness of the pixels in the illuminated area on the composite image becomes constant at the maximum value that can be taken, and on the composite image The part in the area becomes indistinguishable. However, in a region where the contrast is low in the original image, the luminance difference between neighboring pixels increases according to the number of original images, so that it is easy to identify a part that appears in such a region. Therefore, a composite image having a large number of original images is suitable for detecting a pupil, a Purkinje image, or the like that may be shaded by ambient light.

図3(a)は合成に用いた原画像の枚数が相対的に少ない第1の合成画像の一例を示す図であり、図3(b)は図3(a)に示した合成画像における眼の部分を拡大した図である。この第1の合成画像300では、顔の輪郭、及び眼、鼻、口などの部位が識別可能なコントラストで写っている。一方、図3(b)に示されるように、眼の角膜領域310は、ほぼ一様に暗くなっており、そのため、合成画像300からプルキンエ像を検出することは困難である。   FIG. 3A is a diagram showing an example of a first composite image in which the number of original images used for composition is relatively small, and FIG. 3B is an eye in the composite image shown in FIG. It is the figure which expanded the part. In the first composite image 300, the contour of the face and the parts such as the eyes, nose and mouth are shown with a distinguishable contrast. On the other hand, as shown in FIG. 3B, the cornea region 310 of the eye is almost uniformly dark, and therefore it is difficult to detect the Purkinje image from the composite image 300.

図4(a)は合成に用いた原画像の枚数が相対的に多い第2の合成画像の一例を示す図であり、図4(b)は図4(a)に示した合成画像における眼の部分を拡大した図である。この第2の合成画像400では、領域410に含まれる画素の輝度が飽和しているため、その領域410に含まれる顔の輪郭を検出することは困難である。一方、図4(b)に示されるように、眼の角膜領域420は、十分なコントラストを有し、角膜領域420内のプルキンエ像430とその周囲との間の輝度差も大きい。そのため、合成画像400からプルキンエ像を検出することは容易である。   FIG. 4A is a diagram showing an example of a second synthesized image in which the number of original images used for synthesis is relatively large, and FIG. 4B is an eye in the synthesized image shown in FIG. It is the figure which expanded the part. In the second composite image 400, since the luminance of the pixels included in the region 410 is saturated, it is difficult to detect the face outline included in the region 410. On the other hand, as shown in FIG. 4B, the cornea region 420 of the eye has a sufficient contrast, and the luminance difference between the Purkinje image 430 in the cornea region 420 and its surroundings is large. Therefore, it is easy to detect the Purkinje image from the composite image 400.

そこで、第1の合成画像は、顔の領域を検出するために利用され、一方、第2の合成画像は、プルキンエ像を利用する視線方向の検出に利用される。
第1及び第2の積算数を決定するために、例えば、視線検出装置1が実装された装置が、その装置の周囲の照度を測定する照度計を有している場合、画像生成部13は、インターフェース部4を介してその照度計から照度の測定値を取得する。この場合、メモリ5には、予め照度と第1及び第2の積算数との関係を表す積算数参照テーブルが記憶される。そして画像生成部13は、積算数参照テーブルを参照することにより、照度の測定値に対応する第1及び第2の積算数を決定する。
なお、第1の積算数は、例えば、実験的に、第1の合成画像上で顔の輪郭及び眼、鼻、口などの各部位が識別できるようなコントラストが得られるように設定される。一方、第2の積算数は、例えば、実験的に、第2の合成画像上で瞳孔及びプルキンエ像が識別できるようなコントラストが得られるように設定される。
Thus, the first composite image is used to detect a face region, while the second composite image is used to detect a line-of-sight direction using a Purkinje image.
In order to determine the first and second integration numbers, for example, when the device on which the line-of-sight detection device 1 is mounted has an illuminometer that measures the illuminance around the device, the image generation unit 13 The illuminance measurement value is acquired from the illuminance meter via the interface unit 4. In this case, the memory 5 stores in advance an accumulated number reference table that represents the relationship between the illuminance and the first and second accumulated numbers. Then, the image generation unit 13 determines the first and second integration numbers corresponding to the measured illuminance value by referring to the integration number reference table.
Note that the first cumulative number is set so that, for example, a contrast is obtained experimentally so that the contour of the face and each part such as the eyes, nose, and mouth can be identified on the first composite image. On the other hand, the second integration number is set so that, for example, a contrast is obtained experimentally so that the pupil and the Purkinje image can be identified on the second composite image.

また、画像生成部13は、メモリ5に記憶されている何れかの原画像、例えば最新の原画像上の所定領域の平均輝度値に基づいて第1及び第2の積算数を決定してもよい。所定領域は、原画像上で顔が写っている可能性が高い領域、例えば、原画像の中心を含む、原画像の幅及び高さの1/4〜1/2の幅及び高さを持つ部分領域とすることができる。   Further, the image generation unit 13 may determine the first and second integration numbers based on any original image stored in the memory 5, for example, the average luminance value of a predetermined area on the latest original image. Good. The predetermined area has a width and height that is 1/4 to 1/2 of the width and height of the original image including the center of the original image, for example, an area where a face is likely to appear on the original image. It can be a partial area.

さらに、画像生成部13は、顔検出部14から顔の検出または顔の向きの検出に失敗したことを通知されると、第1の積算数を1以上の所定数だけ増やすよう修正する。そして画像生成部13は、修正された第1の積算数の原画像を合成することにより、修正された第1の合成画像を生成し、その修正された第1の合成画像を再度顔検出部14へ渡す。同様に、画像生成部13は、プルキンエ像検出部15から瞳孔の検出またはプルキンエ像の検出に失敗したことを通知されると、第2の積算数を1以上の所定数だけ増やすよう修正する。そして画像生成部13は、修正された第2の積算数の原画像を合成することにより、修正された第2の合成画像を生成し、その修正された第2の合成画像を再度プルキンエ検出部15へ渡す。   Further, when notified by the face detection unit 14 that face detection or face orientation detection has failed, the image generation unit 13 corrects the first integration number to be increased by a predetermined number of 1 or more. Then, the image generation unit 13 generates the corrected first synthesized image by synthesizing the corrected first integrated number of original images, and the face detection unit again generates the corrected first synthesized image. 14 Similarly, when notified by the Purkinje image detection unit 15 that the detection of the pupil or the detection of the Purkinje image has failed, the image generation unit 13 corrects the second cumulative number to be increased by a predetermined number of 1 or more. Then, the image generation unit 13 generates a corrected second composite image by synthesizing the corrected second integrated number of original images, and the corrected second combined image is again generated by the Purkinje detection unit. Pass to 15.

画像生成部13は、第1の合成画像を生成するため、第1の合成画像の各画素について、第1の積算数の原画像の当該画素の値の和を求め、その和を第1の合成画像のその当該画素の値とする。同様に、画像生成部13は、第2の合成画像を生成するため、第2の合成画像の各画素について、第2の積算数の原画像の当該画素の値の和を求め、その和を第2の合成画像のその当該画素の値とする。なお、原画像がカラー画像である場合、画像生成部13は、それぞれの色について画素ごとにその色値の和を算出する。
画像生成部13は、第1の合成画像を顔検出部14へ渡し、一方、第2の合成画像をプルキンエ像検出部15へ渡す。
In order to generate the first composite image, the image generation unit 13 obtains the sum of the values of the pixels of the original image of the first integration number for each pixel of the first composite image, and calculates the sum as the first composite image. The value of the pixel of the composite image is used. Similarly, in order to generate the second composite image, the image generation unit 13 calculates the sum of the values of the pixels of the original image of the second integration number for each pixel of the second composite image, and calculates the sum. It is set as the value of the pixel in the second composite image. When the original image is a color image, the image generation unit 13 calculates the sum of the color values for each pixel for each color.
The image generation unit 13 passes the first composite image to the face detection unit 14, while passing the second composite image to the Purkinje image detection unit 15.

顔検出部14は、視線検出処理またはキャリブレーション処理の実行中において、第1の合成画像上で、ユーザの顔を検出する。
本実施形態では、撮影時において、ユーザの顔は光源2からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、画像上で顔の肌の部分が写っている画素の輝度は高い。一方、画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは光源から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで、顔検出部14は、画像の各画素の値がRGB表色系により表されているカラー画像である場合、各画素の値をYUV表色系により表される値に変換する。そして顔検出部14は、各画素の輝度成分(Y成分)の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。なお、画像の各画素の値が輝度を表すモノクロ画像である場合、顔検出部14は、各画素の値を所定の閾値と比較する。所定の閾値は、例えば、画像上の輝度成分の最大値に0.8を乗じた値に設定される。
The face detection unit 14 detects the user's face on the first composite image during the execution of the line-of-sight detection process or the calibration process.
In the present embodiment, at the time of shooting, the user's face is illuminated with infrared light from the light source 2, and the reflectance of the skin with respect to the infrared light is relatively high (for example, the reflectance of the skin is near infrared. (Several tens of percent in the wavelength range), the brightness of the pixels in which the skin of the face is reflected on the image is high. On the other hand, since the area of the hair or the user's back area on the image has a low reflectance with respect to infrared light or is far from the light source, the luminance of the pixel in which the hair or the area behind the user is reflected is relatively low.
Therefore, when the value of each pixel of the image is a color image represented by the RGB color system, the face detection unit 14 converts the value of each pixel into a value represented by the YUV color system. Then, the face detection unit 14 extracts pixels whose luminance component (Y component) value of each pixel is equal to or greater than a predetermined threshold as face area candidate pixels that may have a face. When the value of each pixel of the image is a monochrome image representing luminance, the face detection unit 14 compares the value of each pixel with a predetermined threshold value. For example, the predetermined threshold is set to a value obtained by multiplying the maximum value of the luminance component on the image by 0.8.

また、第1の合成画像上でユーザの顔が占める領域は比較的大きく、かつ、第1の合成画像上で顔が占める領域の大きさもある程度推定される。
そこで顔検出部14は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして顔検出部14は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、顔検出部14はその顔候補領域をユーザの顔が写っている顔領域と判定する。
なお、顔候補領域の大きさは、例えば、顔候補領域の水平方向の最大幅の画素数で表される。この場合、基準範囲は、例えば、第1の合成画像の水平方向画素数の1/4以上〜2/3以下に設定される。あるいは、顔候補領域の大きさは、例えば、顔候補領域に含まれる画素数で表されてもよい。この場合、基準範囲は、例えば、第1の合成画像全体の画素数の1/16以上〜4/9以下に設定される。
Further, the area occupied by the user's face on the first composite image is relatively large, and the size of the area occupied by the face on the first composite image is estimated to some extent.
Therefore, the face detection unit 14 performs a labeling process on the face area candidate pixels, and sets a set of face area candidate pixels adjacent to each other as a face candidate area. Then, the face detection unit 14 determines whether the size of the face candidate area is included in a reference range corresponding to the size of the user's face. If the size of the face candidate area is included in the reference range corresponding to the size of the user's face, the face detection unit 14 determines that the face candidate area is a face area in which the user's face is reflected.
Note that the size of the face candidate area is represented by, for example, the maximum number of pixels in the horizontal direction of the face candidate area. In this case, the reference range is set to, for example, not less than 1/4 and not more than 2/3 of the number of pixels in the horizontal direction of the first composite image. Alternatively, the size of the face candidate area may be represented by the number of pixels included in the face candidate area, for example. In this case, the reference range is set to, for example, 1/16 or more and 4/9 or less of the total number of pixels of the first composite image.

顔検出部14は、顔候補領域の大きさだけでなく、顔候補領域の形状も、顔候補領域を顔領域と判定するための判定条件に加えてもよい。人の顔は、一般に略楕円形状を有している。そこで顔検出部14は、例えば、顔候補領域の大きさが上記の基準範囲に含まれ、かつ、顔候補領域の円形度が、一般的な顔の輪郭に相当する所定の閾値以上である場合に顔候補領域を顔領域としてもよい。なお顔検出部14は、顔候補領域の輪郭上に位置する画素の合計を顔候補領域の周囲長として求め、顔候補領域内の総画素数に4πを乗じた値を周囲長の2乗で除することにより円形度を算出できる。   The face detection unit 14 may add not only the size of the face candidate area but also the shape of the face candidate area to the determination condition for determining the face candidate area as the face area. A human face generally has a substantially elliptical shape. Therefore, the face detection unit 14, for example, when the size of the face candidate area is included in the reference range and the circularity of the face candidate area is equal to or greater than a predetermined threshold corresponding to a general face contour. Alternatively, the face candidate area may be a face area. The face detection unit 14 obtains the total number of pixels positioned on the contour of the face candidate area as the perimeter of the face candidate area, and multiplies the total number of pixels in the face candidate area by 4π as the square of the perimeter. The circularity can be calculated by dividing.

あるいは、顔検出部14は、顔候補領域の輪郭上の各画素の座標を楕円方程式に当てはめて最小二乗法を適用することにより、顔候補領域を楕円近似してもよい。そして顔検出部14は、その楕円の長軸と短軸の比が一般的な顔の長軸と短軸の比の範囲に含まれる場合に、顔候補領域を顔領域としてもよい。なお、顔検出部14は、楕円近似により顔候補領域の形状を評価する場合、第1の合成画像の各画素の輝度成分に対して近傍画素間演算を行ってエッジに相当するエッジ画素を検出してもよい。この場合、顔検出部14は、エッジ画素を例えばラベリング処理を用いて連結し、一定の長さ以上に連結されたエッジ画素を顔候補領域の輪郭とする。   Alternatively, the face detection unit 14 may approximate the face candidate region to an ellipse by applying the least square method by applying the coordinates of each pixel on the contour of the face candidate region to the elliptic equation. The face detection unit 14 may use the face candidate area as a face area when the ratio of the major axis to the minor axis of the ellipse is included in the range of the ratio of the major axis to the minor axis of the face. Note that when the shape of the face candidate region is evaluated by ellipse approximation, the face detection unit 14 performs an inter-pixel calculation on the luminance component of each pixel of the first composite image to detect an edge pixel corresponding to the edge. May be. In this case, the face detection unit 14 connects the edge pixels using, for example, a labeling process, and uses the edge pixels connected to a certain length or more as the contour of the face candidate region.

なお、顔検出部14は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、顔検出部14は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。   The face detection unit 14 may detect the face area according to any of various other methods for detecting the face area shown on the image. For example, the face detection unit 14 performs template matching between the face candidate area and a template corresponding to a general face shape, calculates the degree of coincidence between the face candidate area and the template, and the degree of coincidence is predetermined. If the value is greater than or equal to the value, the face candidate area may be determined as a face area.

顔検出部14は、顔領域を抽出できると、顔領域を表す情報を生成する。例えば、顔領域を表す情報は、画像と同一のサイズを有し、かつ顔領域内の画素と顔領域外の画素とが異なる画素値を持つ2値画像とすることができる。
そして顔検出部14は、顔領域を表す情報をプルキンエ像検出部15へ渡す。一方、顔検出部14は、顔領域の検出に失敗した場合、例えば、上述した顔領域の検出条件が満たされない場合、画像生成部13へ第1の積算数を増やすよう通知する。
When the face detection unit 14 can extract the face area, the face detection unit 14 generates information representing the face area. For example, the information representing the face area may be a binary image having the same size as the image and having different pixel values for the pixels in the face area and the pixels outside the face area.
The face detection unit 14 passes information representing the face area to the Purkinje image detection unit 15. On the other hand, the face detection unit 14 notifies the image generation unit 13 to increase the first integration number when the detection of the face region fails, for example, when the detection condition of the face region described above is not satisfied.

さらに、顔検出部14は、ユーザの顔向きを判定してもよい。この場合、顔検出部14は、例えば、顔領域内で眼、鼻の穴、口などの特徴的な部位を検出する。そのために、例えば、顔検出部14は、顔領域と一般的なそれらの部位の形状に相当するテンプレートとの間で相対的な位置を変えつつテンプレートマッチングを行って、顔領域とテンプレートとの一致度を算出する。そして顔検出部14は、顔領域内の特定位置で一致度が所定値以上である場合に、その特定位置にテンプレートに相当する部位が写っていると判定する。   Furthermore, the face detection unit 14 may determine the user's face orientation. In this case, the face detection unit 14 detects, for example, characteristic parts such as eyes, nostrils, and mouths in the face area. For this purpose, for example, the face detection unit 14 performs template matching while changing the relative position between the face region and a template corresponding to the general shape of those parts, and matches the face region and the template. Calculate the degree. Then, when the degree of coincidence is a predetermined value or more at a specific position in the face area, the face detection unit 14 determines that a part corresponding to the template is captured at the specific position.

顔検出部14は、部位の位置情報に基づいて顔の中心線を求める。例えば、顔検出部14は、左右の鼻の穴の重心を結ぶ線の第1の中点を求める。また顔検出部14は、左右の眼の重心を結ぶ線の第2の中点を求める。そして顔検出部14は、第1の中点と第2の中点を結ぶ線を顔中心線とする。
顔検出部14は顔中心線の左右の顔領域の画素数の比率、あるいは、顔中心線上の所定の点から顔領域の左右の端点までの最大距離の比率を求める。そして顔検出部14は、その比率と、顔の向きとの関係を表す顔向き参照テーブルを参照することにより、ユーザの顔の向きを決定する。なお、その比率と顔の向きとの関係は、予め実験により決定され、その関係を表す顔向き参照テーブルは、予めメモリ5に記憶される。
The face detection unit 14 obtains the center line of the face based on the position information of the part. For example, the face detection unit 14 obtains a first midpoint of a line connecting the centroids of the left and right nostrils. Further, the face detection unit 14 obtains a second midpoint of a line connecting the center of gravity of the left and right eyes. The face detection unit 14 sets a line connecting the first midpoint and the second midpoint as the face center line.
The face detection unit 14 obtains the ratio of the number of pixels of the left and right face areas of the face center line or the ratio of the maximum distance from a predetermined point on the face center line to the left and right end points of the face area. Then, the face detection unit 14 determines the orientation of the user's face by referring to a face orientation reference table that represents the relationship between the ratio and the orientation of the face. Note that the relationship between the ratio and the face orientation is determined in advance by experiments, and a face orientation reference table representing the relationship is stored in the memory 5 in advance.

顔検出部14は、例えば、カメラ3に対して正対しているときの顔の向きを0°とし、カメラ3から見て右側を向いているときに正の値、左側を向いているときに負の値を持つ、顔の向きを表す水平方向の角度値を作成する。同様に、顔検出部14は、カメラ3に対して正対しているときの顔の向きを0°とし、カメラ3から見て上側を向いているときに正の値、下側を向いているときに負の値を持つ、顔の向きを表す垂直方向の角度値を作成する。そして顔検出部14は、その水平方向の角度値と垂直方向の角度値の組み合わせを、顔の向きを表す情報としてインターフェース部4を介して出力する。   For example, the face detection unit 14 sets the face direction when facing the camera 3 to 0 °, and is positive when facing the right side when viewed from the camera 3, and when facing the left side. Create a horizontal angle value that represents the face orientation with a negative value. Similarly, the face detection unit 14 sets the face direction to 0 ° when facing the camera 3, and faces the upper side when facing the upper side when viewed from the camera 3. Create a vertical angle value representing the face orientation, sometimes with a negative value. Then, the face detection unit 14 outputs the combination of the horizontal angle value and the vertical angle value as information representing the face direction via the interface unit 4.

プルキンエ像検出部15は、視線検出処理またはキャリブレーション処理の実行中において、第2の合成画像上の顔領域内でユーザの眼が写っている領域を検出し、眼が写っている領域内でプルキンエ像を検出する。
眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこでプルキンエ像検出部15は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そしてプルキンエ像検出部15は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。
あるいは、プルキンエ像検出部15は、画像上の眼の像を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
The Purkinje image detection unit 15 detects an area in which the user's eyes are reflected in the face area on the second composite image during execution of the line-of-sight detection process or the calibration process. Detect Purkinje image.
The luminance of the pixel corresponding to the eye is significantly different from the luminance of the pixel corresponding to the periphery of the eye. Therefore, the Purkinje image detection unit 15 detects edge pixels whose luminance changes in the vertical direction by performing a difference calculation between neighboring pixels in the vertical direction using, for example, a Sobel filter for each pixel in the face region. The Purkinje image detection unit 15 sets, for example, an eye region that is surrounded by two edge lines in which a predetermined number or more of edge pixels are connected in a substantially horizontal direction corresponding to the size of the eye.
Alternatively, the Purkinje image detection unit 15 detects a region that most closely matches the template in the face region by template matching between the template representing the image of the eye on the image and the face region, and uses the detected region as the eye region. It is good.

さらに、プルキンエ像検出部15は、眼の領域内で瞳孔が写っている領域を検出する。本実施形態では、プルキンエ像検出部15は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そしてプルキンエ像検出部15は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、プルキンエ像検出部15は、各テンプレートと眼の領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、プルキンエ像検出部15は、一致度の最高値に対応するテンプレートと重なった領域に瞳孔が写っていると判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。   Further, the Purkinje image detection unit 15 detects an area where the pupil is reflected in the eye area. In this embodiment, the Purkinje image detection unit 15 performs template matching between a template corresponding to a pupil and an eye region, and detects a region having the highest degree of matching with the template in the eye region. Then, the Purkinje image detection unit 15 determines that the pupil is reflected in the detected area when the highest coincidence value is higher than a predetermined coincidence threshold value. A plurality of templates may be prepared according to the size of the pupil. In this case, the Purkinje image detection unit 15 executes template matching between each template and the eye region, and obtains the highest value of the matching degree. If the highest coincidence value is higher than the coincidence degree threshold, the Purkinje image detection unit 15 determines that the pupil appears in an area overlapping the template corresponding to the highest coincidence value. Note that the degree of coincidence is calculated as, for example, a normalized cross-correlation value between a template and a region overlapping the template. The coincidence threshold is set to 0.7 or 0.8, for example.

また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこでプルキンエ像検出部15は、眼の領域内で、同心円状に半径の異なる2本のリングを設定する。そしてプルキンエ像検出部15は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。またプルキンエ像検出部15は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼の領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
プルキンエ像検出部15は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の座標として算出する。一方、プルキンエ像検出部15は、瞳孔領域の検出に失敗した場合、画像生成部13へ第2の積算数を増やすよう通知する。
The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Therefore, the Purkinje image detector 15 sets two rings having different radii concentrically within the eye region. When the difference value obtained by subtracting the average luminance value of the inner pixels from the average luminance value of the pixels corresponding to the outer ring is larger than a predetermined threshold, the Purkinje image detection unit 15 is surrounded by the inner ring. The region may be the pupil region. The Purkinje image detection unit 15 may add to the condition for detecting the pupil region that the average luminance value of the region surrounded by the inner ring is equal to or less than a predetermined threshold value. In this case, for example, the predetermined threshold is set to a value obtained by adding 10% to 20% of the difference between the maximum luminance value and the minimum luminance value in the eye region to the minimum luminance value.
When the Purkinje image detection unit 15 succeeds in detecting the pupil region, the Purkinje image detection unit 15 calculates the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the pupil region as the coordinates of the center of gravity of the pupil region. . On the other hand, if the Purkinje image detection unit 15 fails to detect the pupil region, the Purkinje image detection unit 15 notifies the image generation unit 13 to increase the second integration number.

またプルキンエ像検出部15は、眼の領域内で光源2のプルキンエ像を検出する。光源2のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高い。また、光源2のプルキンエ像が写っている領域の形状は、各光源の発光面の形状と略一致する。そこでプルキンエ像検出部15は、眼の領域内で、光源の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そしてプルキンエ像検出部15は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い領域を検出する。そしてプルキンエ像検出部15は、その検出された領域内の内側のリングで囲まれた領域を光源2のプルキンエ像とする。なお、差分閾値は、例えば、眼の領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼の領域内での輝度値の最高値の80%とすることができる。   The Purkinje image detection unit 15 detects the Purkinje image of the light source 2 in the eye region. The luminance of the region where the Purkinje image of the light source 2 is reflected is higher than the luminance of the surrounding region. In addition, the shape of the region where the Purkinje image of the light source 2 is reflected substantially matches the shape of the light emitting surface of each light source. Therefore, the Purkinje image detection unit 15 sets two rings that have a shape that substantially matches the contour shape of the light emitting surface of the light source in the eye region, and that have different sizes and centers. Then, the Purkinje image detection unit 15 has a difference value obtained by subtracting the average value of the luminance of the outer pixels from the average value of the luminance of the pixels corresponding to the inner ring, greater than a predetermined difference threshold value, and A region where the inner luminance average value is higher than a predetermined luminance threshold is detected. Then, the Purkinje image detection unit 15 sets the area surrounded by the inner ring in the detected area as the Purkinje image of the light source 2. Note that the difference threshold value can be, for example, an average value of difference values between neighboring pixels in the eye region. The predetermined luminance threshold can be set to 80% of the maximum luminance value in the eye region, for example.

なお、プルキンエ像検出部15は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、プルキンエ像検出部15は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。   Note that the Purkinje image detection unit 15 may detect the region in which the pupil is shown by using any of various other methods for detecting the region in which the pupil is shown on the image. Similarly, the Purkinje image detection unit 15 detects the region where the Purkinje image of the light source is captured using any of various other methods for detecting the region where the Purkinje image of the light source is captured on the image. Also good.

プルキンエ像検出部15は、光源2のプルキンエ像の検出に成功した場合、光源に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の座標として算出する。一方、プルキンエ像検出部15は、光源のプルキンエ像の検出に失敗した場合、画像生成部13へ第2の積算数を増やすよう通知する。
プルキンエ像検出部15は、キャリブレーション処理の実行時の場合、プルキンエ像の重心及び瞳孔重心をキャリブレーション部17へ通知する。一方、プルキンエ像検出部15は、視線検出処理の実行時には、プルキンエ像の重心及び瞳孔重心を視線検出部16へ通知する。
When the Purkinje image detection unit 15 succeeds in detecting the Purkinje image of the light source 2, the average value of the horizontal coordinate value and the average value of the vertical coordinate value of each pixel included in the light source are used as the coordinates of the center of gravity of the Purkinje image. calculate. On the other hand, if the Purkinje image detection unit 15 fails to detect the Purkinje image of the light source, the Purkinje image detection unit 15 notifies the image generation unit 13 to increase the second integration number.
The Purkinje image detection unit 15 notifies the calibration unit 17 of the center of gravity of the Purkinje image and the center of the pupil when performing the calibration process. On the other hand, the Purkinje image detection unit 15 notifies the gaze detection unit 16 of the center of gravity of the Purkinje image and the center of the pupil when performing the gaze detection process.

視線検出部16は、視線検出処理の実行中において、プルキンエ像の重心及び瞳孔重心に基づいて、ユーザの視線方向を検出する。   The line-of-sight detection unit 16 detects the user's line-of-sight direction based on the center of gravity of the Purkinje image and the center of the pupil during execution of the line-of-sight detection process.

角膜の表面は略球形であるため、視線方向によらず、光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、視線検出部16は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。   Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the light source is substantially constant regardless of the line-of-sight direction. On the other hand, the center of gravity of the pupil moves according to the user's line-of-sight direction. Therefore, the line-of-sight detection unit 16 can detect the user's line-of-sight direction by obtaining the relative position of the pupil center of gravity with respect to the center of gravity of the Purkinje image.

本実施形態では、視線検出部16は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部16は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す視線方向参照テーブルを参照することにより、ユーザの視線方向を決定する。視線検出部16は、ユーザの視線方向を、インターフェース部4を介して出力する。   In the present embodiment, the line-of-sight detection unit 16 determines the relative position of the pupil centroid relative to the centroid of the Purkinje image of the light source, for example, the horizontal direction of the centroid of the Purkinje image from the horizontal coordinate and the vertical coordinate of the pupil centroid. It is obtained by subtracting the coordinate and the vertical coordinate. The line-of-sight detection unit 16 determines the user's line-of-sight direction by referring to a line-of-sight direction reference table that represents the relationship between the relative position of the pupil center of gravity and the user's line-of-sight direction. The line-of-sight detection unit 16 outputs the user's line-of-sight direction via the interface unit 4.

図5は、視線方向参照テーブルの一例を示す図である。視線方向参照テーブル500の左側の列の各欄には、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置の座標が表される。また視線方向参照テーブル500の右側の列の各欄には、同じ行の瞳孔重心の相対的な位置の座標に対応する視線方向が表される。なお、瞳孔重心の相対的な位置の座標は、第2の合成画像上の画素単位で表される。一方、視線方向は、所定方向、例えば、ユーザの視線方向がカメラ3の光軸と平行な方向を基準方向とし、基準方向と視線方向とがなす水平方向の角度と垂直方向の角度の組で表される。例えば、行501には、瞳孔重心の相対的な位置の座標(0,0)に対する視線方向が(0°,0°)であることが示されている。また、行502には、瞳孔重心の相対的な位置の座標(-2,0)に対する視線方向が(-10°,0°)であることが示されている。   FIG. 5 is a diagram illustrating an example of a line-of-sight direction reference table. In each column in the left column of the line-of-sight direction reference table 500, coordinates of the relative position of the pupil centroid with respect to the centroid of the Purkinje image of the light source are represented. In each column in the right column of the line-of-sight direction reference table 500, the line-of-sight direction corresponding to the coordinates of the relative position of the pupil center of gravity in the same row is represented. Note that the coordinates of the relative position of the pupil center of gravity are expressed in units of pixels on the second composite image. On the other hand, the line-of-sight direction is a set of a predetermined direction, for example, a direction in which the user's line-of-sight direction is parallel to the optical axis of the camera 3 and a horizontal direction angle and a vertical direction angle formed by the reference direction and the line-of-sight direction. expressed. For example, row 501 indicates that the line-of-sight direction with respect to the coordinate (0,0) of the relative position of the pupil center of gravity is (0 °, 0 °). Also, row 502 indicates that the line-of-sight direction with respect to the coordinates (−2, 0) of the relative position of the pupil center of gravity is (−10 °, 0 °).

キャリブレーション部17は、キャリブレーション処理を実行することにより視線方向参照テーブルを更新する。
キャリブレーション部17は、例えば、制御部6から視線検出装置1が起動したことを示す信号を受信したときに、キャリブレーション処理を実行する。キャリブレーション処理が開始されると、キャリブレーション部17は、例えば、視線検出装置1が実装された装置のディスプレイなどのユーザインターフェースを介して、ユーザに、所定の基準位置を見ることを指示するメッセージを報知する。基準位置は、例えば、視線検出装置1が実装された装置のディスプレイの中心、あるいはカメラ3の設置位置などとすることができる。またキャリブレーションの実行中、ユーザは、その基準位置を注視するものとする。
The calibration unit 17 updates the line-of-sight direction reference table by executing calibration processing.
For example, when the calibration unit 17 receives a signal indicating that the line-of-sight detection device 1 has been activated from the control unit 6, the calibration unit 17 performs a calibration process. When the calibration process is started, the calibration unit 17 instructs the user to view a predetermined reference position via a user interface such as a display of the device on which the line-of-sight detection device 1 is mounted, for example. Is notified. The reference position can be, for example, the center of the display of the device on which the line-of-sight detection device 1 is mounted, or the installation position of the camera 3. It is assumed that the user gazes at the reference position during calibration.

キャリブレーション部17は、ユーザが基準位置を注視しているときに撮影された原画像から作成される第2の合成画像に基づいて検出された、プルキンエ像の重心及び瞳孔重心の座標をプルキンエ像検出部15から受け取る。そしてキャリブレーション部17は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、基準位置に対応する視線方向に対応させるよう、視線方向参照テーブルを更新する。同様に、キャリブレーション部17は、ユーザが他の基準位置を注視しているときに撮影された原画像に基づいて作成された第2の合成画像から求められたプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、その基準位置に対応する視線方向と対応づけるよう視線方向参照テーブルを更新する。
さらに、キャリブレーション部17は、その他の視線方向に対するプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、既に求められている視線方向に対応する瞳孔重心の相対的な位置を用いて例えば線形補間することにより決定する。
キャリブレーション部17は、更新された視線方向参照テーブルをメモリ5に保存する。
The calibration unit 17 uses the Purkinje image to determine the coordinates of the center of gravity of the Purkinje image and the center of the pupil detected based on the second composite image created from the original image taken when the user is gazing at the reference position. Received from the detector 15. Then, the calibration unit 17 updates the line-of-sight direction reference table so that the relative position of the pupil center of gravity relative to the center of gravity of the Purkinje image corresponds to the line-of-sight direction corresponding to the reference position. Similarly, the calibration unit 17 uses the center of gravity of the Purkinje image obtained from the second composite image created based on the original image taken when the user is gazing at another reference position as a reference. The line-of-sight direction reference table is updated so that the relative position of the center of gravity of the pupil is associated with the line-of-sight direction corresponding to the reference position.
Further, the calibration unit 17 uses the relative position of the pupil centroid relative to the centroid of the Purkinje image with respect to other sight line directions, using the relative position of the pupil centroid corresponding to the already determined sight line direction. For example, it is determined by linear interpolation.
The calibration unit 17 stores the updated line-of-sight direction reference table in the memory 5.

図6及び図7は、制御部6により制御される視線検出処理の動作フローチャートである。制御部6は、所定の周期、例えば、100m秒〜1秒間隔で、この動作フローチャートに示される視線検出処理を繰返し実行する。   6 and 7 are operation flowcharts of the line-of-sight detection process controlled by the control unit 6. The control unit 6 repeatedly executes the line-of-sight detection process shown in this operation flowchart at a predetermined cycle, for example, at intervals of 100 milliseconds to 1 second.

制御部6のカメラ制御部12は、カメラ3から、所定の周期及び所定の露出条件でユーザの顔を撮影した複数の原画像を取得する(ステップS101)。そしてカメラ制御部12は、各原画像をメモリ5に一時的に記憶させる。また、制御部6の画像生成部13は、第1の積算数を決定する(ステップS102)。画像生成部13は、第1の積算数の原画像を合成することにより第1の合成画像を作成する(ステップS103)。そして画像生成部13は、第1の合成画像を制御部6の顔検出部14へ渡す。   The camera control unit 12 of the control unit 6 acquires, from the camera 3, a plurality of original images obtained by photographing the user's face with a predetermined cycle and a predetermined exposure condition (step S101). Then, the camera control unit 12 temporarily stores each original image in the memory 5. Further, the image generation unit 13 of the control unit 6 determines the first integration number (step S102). The image generation unit 13 creates a first synthesized image by synthesizing the first accumulated number of original images (step S103). Then, the image generation unit 13 passes the first composite image to the face detection unit 14 of the control unit 6.

顔検出部14は、第1の合成画像に対して顔領域及び顔向き検出処理を実行する(ステップS104)。そして顔検出部14は、顔領域及び顔向きが検出できたか否か判定する(ステップS105)。顔検出部14は、顔領域または顔向きの何れかが検出できなかった場合(ステップS105−No)、画像生成部13へ第1の積算数を増やすよう通知する。そして画像生成部13は、第1の積算数を1以上の所定数だけ増やす(ステップS106)。そして制御部6は、ステップS103以降の処理を再度実行する。   The face detection unit 14 performs a face area and face direction detection process on the first composite image (step S104). Then, the face detection unit 14 determines whether or not the face area and the face direction have been detected (step S105). If either the face area or the face orientation cannot be detected (step S105—No), the face detection unit 14 notifies the image generation unit 13 to increase the first integration number. Then, the image generation unit 13 increases the first integration number by a predetermined number of 1 or more (step S106). And the control part 6 performs the process after step S103 again.

一方、顔検出部14は、顔領域と顔向きの両方が検出できた場合(ステップS105−Yes)、顔領域をプルキンエ像検出部15へ通知する。また顔検出部14は、顔向きを表す情報をインターフェース部4を介して視線検出装置1が実装された装置へ出力する(ステップS107)。   On the other hand, the face detection unit 14 notifies the Purkinje image detection unit 15 of the face area when both the face area and the face direction can be detected (Yes in step S105). Further, the face detection unit 14 outputs information representing the face orientation to the device on which the line-of-sight detection device 1 is mounted via the interface unit 4 (step S107).

図7に示されるように、画像生成部13は、第1の積算数よりも多い第2の積算数を決定する(ステップS108)。そして画像生成部13は、第2の積算数の原画像を合成することにより第2の合成画像を作成する(ステップS109)。画像生成部13は、第2の合成画像をプルキンエ像検出部15へ渡す。プルキンエ像検出部15は、第2の合成画像上の顔領域に対して瞳孔及びプルキンエ像の検出処理を実行する(ステップS110)。そしてプルキンエ像検出部15は、瞳孔及びプルキンエ像が検出できたか否か判定する(ステップS111)。プルキンエ像検出部15は、瞳孔またはプルキンエ像の何れかが検出できなかった場合(ステップS111−No)、画像生成部13へ第2の積算数を増やすよう通知する。そして画像生成部13は、第2の積算数を1以上の所定数だけ増やす(ステップS112)。そして制御部6は、ステップS109以降の処理を再度実行する。   As illustrated in FIG. 7, the image generation unit 13 determines a second integration number that is greater than the first integration number (step S108). Then, the image generation unit 13 generates a second combined image by combining the second accumulated number of original images (step S109). The image generation unit 13 passes the second composite image to the Purkinje image detection unit 15. The Purkinje image detection unit 15 performs pupil and Purkinje image detection processing on the face region on the second composite image (step S110). Then, the Purkinje image detection unit 15 determines whether or not the pupil and the Purkinje image have been detected (step S111). If either the pupil or the Purkinje image cannot be detected (step S111-No), the Purkinje image detection unit 15 notifies the image generation unit 13 to increase the second integration number. Then, the image generation unit 13 increases the second integration number by a predetermined number of 1 or more (step S112). And the control part 6 performs the process after step S109 again.

一方、プルキンエ像検出部15は、瞳孔とプルキンエ像の両方が検出できた場合(ステップS111−Yes)、プルキンエ像の重心及び瞳孔重心を視線検出部16へ通知する。視線検出部16は、プルキンエ像の重心と瞳孔重心の相対的な位置関係に基づいてユーザの視線方向を決定する(ステップS113)。そして視線検出部16は、視線方向を表す情報をインターフェース部4を介して視線検出装置1が実装された装置へ出力する(ステップS114)。   On the other hand, if both the pupil and the Purkinje image can be detected (step S111-Yes), the Purkinje image detection unit 15 notifies the line-of-sight detection unit 16 of the center of gravity of the Purkinje image and the center of the pupil. The line-of-sight detection unit 16 determines the user's line-of-sight direction based on the relative positional relationship between the center of gravity of the Purkinje image and the center of gravity of the pupil (step S113). Then, the line-of-sight detection unit 16 outputs information representing the line-of-sight direction to the device on which the line-of-sight detection device 1 is mounted via the interface unit 4 (step S114).

なお、顔検出部14は、ステップS104にて顔領域検出処理のみを実行してもよい。この場合、ステップS105においても、顔検出部14は、顔領域が検出されたか否かを判定する。   Note that the face detection unit 14 may execute only the face area detection process in step S104. In this case, also in step S105, the face detection unit 14 determines whether a face area is detected.

以上に説明してきたように、この視線検出装置は、所定の露出条件で撮影された原画像を互いに異なる枚数だけ合成することで、顔領域及び顔向きなどの検出に適した合成画像と瞳孔及びプルキンエ像などの検出に適した合成画像とを別個に作成する。そのため、この視線検出装置は、周囲の環境が明るい場合でも、顔領域を参照してユーザの視線方向を検出できる。またこの視線検出装置は、プルキンエ像などの検出に失敗したとしても、原画像の積算数を変更するだけで、プルキンエ像などの検出に適した合成画像を作成できる。したがって、この視線検出装置は、プルキンエ像の検出に失敗してからユーザの眼を再撮影する必要はなく、プルキンエ像が検出できるまでのタイムラグを短縮できるので、視線方向を検出するのに要する時間の増加を抑制できる。   As described above, this line-of-sight detection device combines a composite image suitable for detection of a face region, a face orientation, and the like by combining different numbers of original images captured under a predetermined exposure condition. A composite image suitable for detection such as a Purkinje image is created separately. Therefore, this gaze detection apparatus can detect the user's gaze direction with reference to the face area even when the surrounding environment is bright. Moreover, even if the detection of the Purkinje image or the like fails, this line-of-sight detection device can create a composite image suitable for the detection of the Purkinje image or the like only by changing the cumulative number of original images. Therefore, this line-of-sight detection device does not need to re-photograph the user's eyes after failure to detect the Purkinje image, and can shorten the time lag until the Purkinje image can be detected, so the time required to detect the line-of-sight direction Can be suppressed.

なお、本発明は上記の実施形態に限定されるものではない。例えば、カメラは、視線検出処理の実行中、照明光源が消灯した状態で撮影した暗画像を一定周期で生成してもよい。そして制御部の画像生成部は、第2の合成画像の各画素の輝度値から、暗画像の対応する画素の輝度値を減算することにより得られた差分画像を、補正された第2の合成画像としてもよい。
この場合、暗画像と原画像とでは、光源のプルキンエ像のみが異なり、かつ暗画像にはプルキンエ像が写っていない。そのため、上記のように第2の合成画像と暗画像の差分画像では、プルキンエ像が強調される。一方、角膜上に太陽または室内灯など他の光源の像が写っていても、原画像上の他の光源の像と暗画像上の他の光源の像はほぼ同一であるため、差分画像上では、他の光源の像はキャンセルされてそのコントラストは低下する。そのため、プルキンエ像検出部は、補正された第2の合成画像に基づいてプルキンエ像を検出することで、他の光源の像を視線検出装置が有する光源のプルキンエ像として誤検出し難くなり、より正確にプルキンエ像を検出できる。
なお、暗画像を撮影するための露出条件は、原画像を撮影するための露出条件と同一でもよい。あるいは、暗画像を撮影するための露出条件は、第2の合成画像を1回の撮影で得るための露光量よりも小さく、かつ、原画像を撮影するための露出条件よりも露光量が多くなるように設定されてもよい。
In addition, this invention is not limited to said embodiment. For example, the camera may generate a dark image that is captured in a state where the illumination light source is turned off at a certain period during the execution of the line-of-sight detection process. The image generation unit of the control unit corrects the difference image obtained by subtracting the luminance value of the corresponding pixel of the dark image from the luminance value of each pixel of the second combined image, and corrects the second combined image. It may be an image.
In this case, only the Purkinje image of the light source is different between the dark image and the original image, and the Purkinje image is not reflected in the dark image. Therefore, as described above, the Purkinje image is enhanced in the difference image between the second composite image and the dark image. On the other hand, even if an image of another light source such as the sun or room light is shown on the cornea, the image of the other light source on the original image and the image of the other light source on the dark image are almost the same. Then, the image of the other light source is canceled and its contrast is lowered. Therefore, the Purkinje image detection unit detects the Purkinje image based on the corrected second composite image, so that it becomes difficult to erroneously detect the image of the other light source as the Purkinje image of the light source of the line-of-sight detection device. The Purkinje image can be detected accurately.
Note that the exposure condition for capturing a dark image may be the same as the exposure condition for capturing an original image. Alternatively, the exposure condition for photographing the dark image is smaller than the exposure amount for obtaining the second composite image by one photographing, and the exposure amount is larger than the exposure condition for photographing the original image. It may be set to be.

他の変形例では、顔検出部は、最新の第1の合成画像上での顔領域の位置または顔向きを決定するために、過去に検出された顔領域の位置及び顔向きを参照してもよい。例えば、顔検出部は、ブロックマッチングなどの動き検出処理を利用して、過去の合成画像で検出された顔領域などと最も一致する最新の第1の合成画像上の領域を求め、その領域を顔領域としてもよい。あるいは、顔検出部は、様々なトラッキング技術の何れかを利用して、最新の第1の合成画像上で抽出された顔候補領域中、過去に検出された顔領域の位置から最も確からしい顔候補領域を求めて、その顔候補領域を顔領域としてもよい。さらに、視線検出装置が実装された装置が、ジャイロなどの角速度を検出するセンサを搭載している場合、顔検出部は、そのセンサから角速度に関する情報を取得して、顔向きの判定に利用してもよい。例えば、顔検出部は、過去に顔向きを検出したときから最新の第1の合成画像が得られたときまでの装置の回転角を、角速度に関する情報に基づいて求め、その回転角だけ顔向きが変化したと判定してもよい。
さらに他の変形例では、プルキンエ像検出部は、第2の合成画像全体に対して瞳孔の検出処理を行ってもよい。
In another modification, the face detection unit refers to the position and face orientation of the face area detected in the past in order to determine the position or face orientation of the face area on the latest first composite image. Also good. For example, the face detection unit uses a motion detection process such as block matching to obtain a region on the latest first composite image that most closely matches the face region detected in the past composite image, and determines the region. It may be a face area. Alternatively, the face detection unit uses any of various tracking techniques, and the most probable face from the position of the face area detected in the past among the face candidate areas extracted on the latest first composite image. A candidate area may be obtained and the face candidate area may be used as the face area. Further, when the device on which the line-of-sight detection device is mounted is equipped with a sensor for detecting an angular velocity such as a gyro, the face detection unit acquires information on the angular velocity from the sensor and uses it to determine the face orientation. May be. For example, the face detection unit obtains the rotation angle of the device from the time when the face orientation is detected in the past to the time when the latest first composite image is obtained based on the information about the angular velocity, and the face orientation is determined by the rotation angle. It may be determined that has changed.
In still another modification, the Purkinje image detection unit may perform pupil detection processing on the entire second composite image.

また、上記の実施形態及び変形例による制御部の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。   In addition, the computer program that realizes the function of each unit of the control unit according to the above-described embodiments and modifications is recorded in a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. May be provided.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
ユーザの顔を照明する光源と、
所定の露出条件でユーザの顔を複数回撮影することにより複数の原画像を生成する撮像部と、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、かつ、前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成する画像生成部と、
前記第1の合成画像からユーザの顔を検出する顔検出部と、
前記第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出するプルキンエ像検出部と、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する視線検出部と、
を有する視線検出装置。
(付記2)
前記所定の露出条件は、前記撮像部の撮影対象範囲内の平均照度が想定される最大値である場合に前記原画像上で前記ユーザの顔に相当する画素の輝度値が飽和しない条件である、付記1に記載の視線検出装置。
(付記3)
前記顔検出部が前記ユーザの顔の検出に失敗した場合、前記画像生成部は、前記第1の数を所定数増加するよう修正し、前記複数の原画像のうち、該修正された第1の数の原画像を合成することにより修正された第1の合成画像を生成し、前記顔検出部は、該修正された第1の合成画像からユーザの顔を検出する、付記1または2に記載の視線検出装置。
(付記4)
前記プルキンエ像検出部が前記ユーザの瞳孔または前記光源のプルキンエ像の検出に失敗した場合、前記画像生成部は、前記第2の数を所定数増加するよう修正し、前記複数の原画像のうち、該修正された第2の数の原画像を合成することにより修正された第2の合成画像を生成し、前記プルキンエ像検出部は、該修正された第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出する、付記1〜3の何れか一項に記載の視線検出装置。
(付記5)
前記プルキンエ像検出部は、前記顔検出部で検出されたユーザの顔に対応する前記第2の合成画像上の領域内でユーザの瞳孔及び前記光源のプルキンエ像を検出する、付記1〜4の何れか一項に記載の視線検出装置。
(付記6)
前記撮像部は、前記光源が消灯した状態で前記ユーザの顔を撮影した暗画像をさらに取得し、
前記画像生成部は、前記複数の原画像のうち、前記第2の数の原画像を合成した画像と前記暗画像の差分画像を前記第2の合成画像として生成する、
付記1〜5の何れか一項に記載の視線検出装置。
(付記7)
所定の露出条件で、光源により照明されたユーザの顔を複数回撮影することにより複数の原画像を生成し、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、
前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成し、
前記第1の合成画像からユーザの顔を検出し、
前記第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出し、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する、
ことを含む視線検出方法。
(付記8)
所定の露出条件で、光源により照明されたユーザの顔を複数回撮影することにより生成された複数の原画像を取得し、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、
前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成し、
前記第1の合成画像からユーザの顔を検出し、
前記第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出し、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する、
ことをコンピュータに実行させる視線検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A light source that illuminates the user's face;
An imaging unit that generates a plurality of original images by photographing a user's face a plurality of times under a predetermined exposure condition;
A first synthesized image is generated by synthesizing a first number of original images among the plurality of original images, and a second number greater than the first number among the plurality of original images. An image generation unit that generates a second combined image by combining a number of original images;
A face detection unit for detecting a user's face from the first composite image;
A Purkinje image detector for detecting a user's pupil and Purkinje image of the light source from the second composite image;
A line-of-sight detection unit that detects a user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A line-of-sight detection apparatus comprising:
(Appendix 2)
The predetermined exposure condition is a condition in which a luminance value of a pixel corresponding to the user's face is not saturated on the original image when an average illuminance within a photographing target range of the imaging unit is a maximum value assumed. The line-of-sight detection device according to attachment 1.
(Appendix 3)
When the face detection unit fails to detect the user's face, the image generation unit corrects the first number to be increased by a predetermined number, and the corrected first of the plurality of original images is corrected. A first composite image modified by synthesizing a number of original images is generated, and the face detection unit detects a user's face from the modified first composite image. The line-of-sight detection device described.
(Appendix 4)
When the Purkinje image detection unit fails to detect the user's pupil or Purkinje image of the light source, the image generation unit corrects the second number to be increased by a predetermined number, and out of the plurality of original images Generating a modified second composite image by compositing the modified second number of original images, and the Purkinje image detection unit generates the user's pupil and the second image from the modified second composite image. The line-of-sight detection device according to any one of appendices 1 to 3, which detects a Purkinje image of the light source.
(Appendix 5)
The Purkinje image detection unit detects the user's pupil and the Purkinje image of the light source within a region on the second composite image corresponding to the user's face detected by the face detection unit. The visual line detection device according to any one of the above.
(Appendix 6)
The imaging unit further obtains a dark image obtained by photographing the user's face with the light source turned off,
The image generation unit generates, as the second combined image, a difference image between an image obtained by combining the second number of original images and the dark image among the plurality of original images.
The line-of-sight detection device according to any one of appendices 1 to 5.
(Appendix 7)
A plurality of original images are generated by photographing a user's face illuminated by a light source a plurality of times under a predetermined exposure condition,
Generating a first synthesized image by synthesizing a first number of original images among the plurality of original images;
Generating a second synthesized image by synthesizing a second number of original images larger than the first number among the plurality of original images;
Detecting a user's face from the first composite image;
Detecting the pupil of the user and the Purkinje image of the light source from the second composite image;
Detecting the user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A gaze detection method including the above.
(Appendix 8)
Obtaining a plurality of original images generated by photographing a user's face illuminated by a light source a plurality of times under a predetermined exposure condition;
Generating a first synthesized image by synthesizing a first number of original images among the plurality of original images;
Generating a second synthesized image by synthesizing a second number of original images larger than the first number among the plurality of original images;
Detecting a user's face from the first composite image;
Detecting the pupil of the user and the Purkinje image of the light source from the second composite image;
Detecting the user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A computer program for eye-gaze detection that causes a computer to execute the above.

1 視線検出装置
2 光源
3 カメラ
4 インターフェース部
5 メモリ
6 制御部
11 光源制御部
12 カメラ制御部
13 画像生成部
14 顔検出部
15 プルキンエ像検出部
16 視線検出部
17 キャリブレーション部
DESCRIPTION OF SYMBOLS 1 Line-of-sight detection apparatus 2 Light source 3 Camera 4 Interface part 5 Memory 6 Control part 11 Light source control part 12 Camera control part 13 Image generation part 14 Face detection part 15 Purkinje image detection part 16 Line-of-sight detection part 17 Calibration part

Claims (5)

ユーザの顔を照明する光源と、
所定の露出条件でユーザの顔を複数回撮影することにより複数の原画像を生成する撮像部と、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、かつ、前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成する画像生成部と、
前記第1の合成画像からユーザの顔を検出する顔検出部と、
前記顔検出部で検出されたユーザの顔に対応する前記第2の合成画像上の領域内でユーザの瞳孔及び前記光源のプルキンエ像を検出するプルキンエ像検出部と、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する視線検出部と、
を有する視線検出装置。
A light source that illuminates the user's face;
An imaging unit that generates a plurality of original images by photographing a user's face a plurality of times under a predetermined exposure condition;
A first synthesized image is generated by synthesizing a first number of original images among the plurality of original images, and a second number greater than the first number among the plurality of original images. An image generation unit that generates a second combined image by combining a number of original images;
A face detection unit for detecting a user's face from the first composite image;
A Purkinje image detection unit for detecting the user's pupil and the Purkinje image of the light source in an area on the second composite image corresponding to the user's face detected by the face detection unit;
A line-of-sight detection unit that detects a user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A line-of-sight detection apparatus comprising:
前記顔検出部が前記ユーザの顔の検出に失敗した場合、前記画像生成部は、前記第1の数を所定数増加するよう修正し、前記複数の原画像のうち、該修正された第1の数の原画像を合成することにより修正された第1の合成画像を生成し、前記顔検出部は、該修正された第1の合成画像からユーザの顔を検出する、請求項1に記載の視線検出装置。   When the face detection unit fails to detect the user's face, the image generation unit corrects the first number to be increased by a predetermined number, and the corrected first of the plurality of original images is corrected. 2. The corrected first composite image is generated by combining the number of original images, and the face detection unit detects a user's face from the corrected first composite image. Gaze detection device. 前記プルキンエ像検出部が前記ユーザの瞳孔または前記光源のプルキンエ像の検出に失敗した場合、前記画像生成部は、前記第2の数を所定数増加するよう修正し、前記複数の原画像のうち、該修正された第2の数の原画像を合成することにより修正された第2の合成画像を生成し、前記プルキンエ像検出部は、該修正された第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出する、請求項1または2に記載の視線検出装置。   When the Purkinje image detection unit fails to detect the user's pupil or Purkinje image of the light source, the image generation unit corrects the second number to be increased by a predetermined number, and out of the plurality of original images Generating a modified second composite image by compositing the modified second number of original images, and the Purkinje image detection unit generates the user's pupil and the second image from the modified second composite image. The line-of-sight detection device according to claim 1, wherein a Purkinje image of the light source is detected. 前記撮像部は、前記光源が消灯した状態で前記ユーザの顔を撮影した暗画像をさらに取得し、
前記画像生成部は、前記複数の原画像のうち、前記第2の数の原画像を合成した画像と前記暗画像の差分画像を前記第2の合成画像として生成する、
請求項1〜3の何れか一項に記載の視線検出装置。
The imaging unit further obtains a dark image obtained by photographing the user's face with the light source turned off,
The image generation unit generates, as the second combined image, a difference image between an image obtained by combining the second number of original images and the dark image among the plurality of original images.
The gaze detection device according to any one of claims 1 to 3 .
所定の露出条件で、光源により照明されたユーザの顔を複数回撮影することにより複数の原画像を生成し、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、
前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成し、
前記第1の合成画像からユーザの顔を検出し、
検出されたユーザの顔に対応する前記第2の合成画像上の領域内でユーザの瞳孔及び前記光源のプルキンエ像を検出し、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する、
ことを含む視線検出方法。
A plurality of original images are generated by photographing a user's face illuminated by a light source a plurality of times under a predetermined exposure condition,
Generating a first synthesized image by synthesizing a first number of original images among the plurality of original images;
Generating a second synthesized image by synthesizing a second number of original images larger than the first number among the plurality of original images;
Detecting a user's face from the first composite image;
Detecting the user's pupil and Purkinje image of the light source in an area on the second composite image corresponding to the detected user's face ;
Detecting the user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A gaze detection method including the above.
JP2010268282A 2010-12-01 2010-12-01 Gaze detection apparatus and gaze detection method Expired - Fee Related JP5601179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010268282A JP5601179B2 (en) 2010-12-01 2010-12-01 Gaze detection apparatus and gaze detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010268282A JP5601179B2 (en) 2010-12-01 2010-12-01 Gaze detection apparatus and gaze detection method

Publications (2)

Publication Number Publication Date
JP2012115505A JP2012115505A (en) 2012-06-21
JP5601179B2 true JP5601179B2 (en) 2014-10-08

Family

ID=46499101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010268282A Expired - Fee Related JP5601179B2 (en) 2010-12-01 2010-12-01 Gaze detection apparatus and gaze detection method

Country Status (1)

Country Link
JP (1) JP5601179B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6056323B2 (en) 2012-09-24 2017-01-11 富士通株式会社 Gaze detection device, computer program for gaze detection
KR101867915B1 (en) 2015-01-16 2018-07-19 현대자동차주식회사 Method for executing vehicle function using wearable device and vehicle for carrying out the same
WO2017134918A1 (en) * 2016-02-01 2017-08-10 アルプス電気株式会社 Line-of-sight detection device
JP6897291B2 (en) * 2017-05-02 2021-06-30 株式会社リコー Image evaluation device and image evaluation method
JP2019046438A (en) * 2017-09-05 2019-03-22 株式会社Jvcケンウッド Evaluation apparatus and evaluation method
JP6717330B2 (en) 2018-03-15 2020-07-01 オムロン株式会社 Eye-gaze detecting device, control method of the eye-gaze detecting device, method of detecting corneal reflection image position, and computer program
CN108811249B (en) * 2018-06-29 2024-04-23 深圳微步信息股份有限公司 Iris illumination control circuit and mobile terminal

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003000544A (en) * 2001-06-20 2003-01-07 Canon Inc Line-of-vision detector
JP4451195B2 (en) * 2004-04-13 2010-04-14 本田技研工業株式会社 Gaze detection device
JP5145555B2 (en) * 2007-03-30 2013-02-20 国立大学法人静岡大学 Pupil detection method
JP4888838B2 (en) * 2008-05-12 2012-02-29 トヨタ自動車株式会社 Driver imaging device and driver imaging method
JP4623172B2 (en) * 2008-09-03 2011-02-02 株式会社デンソー Pupil detection device, program for pupil detection device, and pupil detection method
JP4818393B2 (en) * 2009-05-07 2011-11-16 キヤノン株式会社 Image processing method and image processing apparatus
JP4995935B2 (en) * 2010-03-26 2012-08-08 株式会社コナミデジタルエンタテインメント Image generating apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2012115505A (en) 2012-06-21

Similar Documents

Publication Publication Date Title
JP5601179B2 (en) Gaze detection apparatus and gaze detection method
CN113729611B (en) Eye tracking using center position of eyeball
JP5626039B2 (en) Gaze detection apparatus and gaze detection method
JP6036065B2 (en) Gaze position detection device and gaze position detection method
US9473696B2 (en) Gaze detection apparatus, gaze detection computer program, and display apparatus
JP5949319B2 (en) Gaze detection apparatus and gaze detection method
JP5467303B1 (en) Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium
EP3076892B1 (en) A medical optical tracking system
JP5621456B2 (en) Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal
JP6346525B2 (en) Gaze detection device
JP5655644B2 (en) Gaze detection apparatus and gaze detection method
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
US11023039B2 (en) Visual line detection apparatus and visual line detection method
TW201416908A (en) Pupil tracking device
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
JP6957048B2 (en) Eye image processing device
US20200150758A1 (en) Display device, learning device, and control method of display device
JP6904624B1 (en) Club head measurement mark and image processing device
JP6856017B2 (en) Corneal reflex position detection device, line-of-sight detection device and corneal reflex position detection method
JP2016028669A (en) Pupil detection device and pupil detection method
JP6555707B2 (en) Pupil detection device, pupil detection method, and pupil detection program
JP2016051317A (en) Visual line detection device
JP2005266868A (en) Method for detecting direction of head part using pupil and nostril
JP2024030668A (en) Lighting system and photography system
JP2005296383A (en) Visual line detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140804

R150 Certificate of patent or registration of utility model

Ref document number: 5601179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees