JP5601179B2 - Gaze detection apparatus and gaze detection method - Google Patents
Gaze detection apparatus and gaze detection method Download PDFInfo
- Publication number
- JP5601179B2 JP5601179B2 JP2010268282A JP2010268282A JP5601179B2 JP 5601179 B2 JP5601179 B2 JP 5601179B2 JP 2010268282 A JP2010268282 A JP 2010268282A JP 2010268282 A JP2010268282 A JP 2010268282A JP 5601179 B2 JP5601179 B2 JP 5601179B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- user
- line
- original images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、例えば、角膜反射像を検出することにより視線方向を検出する視線検出装置及び視線検出方法に関する。 The present invention relates to a gaze detection apparatus and a gaze detection method that detect a gaze direction by detecting, for example, a cornea reflection image.
従来より、ユーザの眼を撮影した画像を解析することにより光源の角膜反射像(プルキンエ像)を検出することで、ユーザの視線方向を検出する視線検出装置が開発されている。このような視線検出装置は、プルキンエ像を検出できなければ、視線方向を検出することができない。そのため、プルキンエ像が画像上で識別可能なように、ユーザの眼を撮影するカメラの露光量が適切に調節されることが好ましい。 2. Description of the Related Art Conventionally, a line-of-sight detection device that detects a user's line-of-sight direction by detecting a cornea reflection image (Purkinje image) of a light source by analyzing an image obtained by photographing a user's eyes has been developed. Such a gaze detection device cannot detect the gaze direction unless it can detect the Purkinje image. Therefore, it is preferable that the exposure amount of the camera that captures the user's eyes is appropriately adjusted so that the Purkinje image can be identified on the image.
しかし、視線検出装置が搭載された装置は、屋内のように環境光による照度がある程度一定に保たれる環境で利用されるとは限らない。例えば、そのような装置が屋外で使用される場合、ユーザの顔に太陽光が当たったり、太陽光が直接カメラに入射することもある。このような場合、ユーザの眼の輝度よりもその他の部分の輝度の方が非常に高くなるので、その他の部分に合わせて露光量が調節されると、プルキンエ像及びその周囲については露光量が不足する。その結果、画像上でプルキンエ像が識別できなくなる。一方、視線検出装置が、ユーザの顔を照明するのに十分な光量を持つ光を発する照明光源を有していれば、環境光の明るさにかかわらずに、プルキンエ像と顔全体を識別できる画像を生成することができる。しかし、そのような光源は消費電力が大きく、また大きな光量を持つ光をユーザの顔、特に眼に向けて照射することは危険を伴うので好ましくない。 However, a device equipped with a line-of-sight detection device is not always used in an environment where the illuminance by ambient light is kept constant to some extent, such as indoors. For example, when such a device is used outdoors, sunlight may strike the user's face or sunlight may directly enter the camera. In such a case, the brightness of the other part is much higher than the brightness of the user's eyes. Therefore, when the exposure amount is adjusted according to the other part, the exposure amount is about the Purkinje image and its surroundings. Run short. As a result, the Purkinje image cannot be identified on the image. On the other hand, if the line-of-sight detection device has an illumination light source that emits light having a sufficient amount of light to illuminate the user's face, the Purkinje image and the entire face can be identified regardless of the brightness of the ambient light. An image can be generated. However, such a light source consumes a large amount of power, and it is not preferable to irradiate a user's face, particularly eyes, with light having a large amount of light because it involves danger.
そこで、露光量が相対的に少ない第1の画像からユーザの顔の輪郭などを検出することで顔向きを検出し、一方、露光量が相対的に多い第2の画像に写ったユーザの眼の情報を用いて視線方向を検出する技術が提案されている(例えば、特許文献1を参照)。 Therefore, the face direction is detected by detecting the contour of the user's face from the first image with a relatively small amount of exposure, while the user's eyes appear in the second image with a relatively large amount of exposure. There has been proposed a technique for detecting the line-of-sight direction using the above information (see, for example, Patent Document 1).
しかしながら、第1の画像または第2の画像の撮影時の露光量が適切でなければ、それらの画像から顔の輪郭または眼を検出することが困難となる。そのため、露光量が不適切な場合には、視線検出装置は、例えば、電子シャッタの開放時間または撮像素子のゲインを調節した上で、ユーザの顔を再撮影しなければならないおそれがあった。そして再撮影が行われた場合、視線検出に要する処理時間が、その再撮影に要する期間だけ長くなる。処理時間が長くなることは、特に、できるだけリアルタイムで視線方向を知ることが求められるアプリケーションにとって好ましくない。 However, if the exposure amount at the time of shooting the first image or the second image is not appropriate, it is difficult to detect the face outline or eyes from these images. Therefore, when the exposure amount is inappropriate, the visual line detection device may have to re-photograph the user's face after adjusting the opening time of the electronic shutter or the gain of the image sensor, for example. When re-photographing is performed, the processing time required for eye-gaze detection is increased by the period required for re-photographing. Longer processing time is not preferable especially for applications that require the gaze direction to be known in real time as much as possible.
そこで本明細書は、周囲環境の明るさによらずにユーザの視線方向を検出できるとともに、視線検出に要する処理時間の増加を抑制可能な視線検出装置を提供することを目的とする。 In view of this, it is an object of the present specification to provide a gaze detection apparatus that can detect a user's gaze direction regardless of the brightness of the surrounding environment and can suppress an increase in processing time required for gaze detection.
一つの実施形態によれば、視線検出装置が提供される。この視線検出装置は、ユーザの顔を照明する光源と、所定の露出条件でユーザの顔を複数回撮影することにより複数の原画像を生成する撮像部と、第1の数の原画像を合成することにより第1の合成画像を生成し、かつ、第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成する画像生成部と、第1の合成画像からユーザの顔を検出する顔検出部と、第2の合成画像からユーザの瞳孔及び光源のプルキンエ像を検出するプルキンエ像検出部と、ユーザの瞳孔と光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する視線検出部とを有する。 According to one embodiment, a line-of-sight detection device is provided. The line-of-sight detection device combines a light source that illuminates a user's face, an imaging unit that generates a plurality of original images by photographing the user's face multiple times under a predetermined exposure condition, and a first number of original images. An image generation unit that generates a first composite image and generates a second composite image by combining a second number of original images greater than the first number; Based on the positional relationship between the face detection unit for detecting the user's face from the image, the Purkinje image detection unit for detecting the Purkinje image of the user's pupil and light source from the second composite image, and the Purkinje image of the user's pupil and light source A line-of-sight detection unit that detects the line-of-sight direction of the user.
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.
本明細書に開示された視線検出装置は、周囲環境の明るさによらずにユーザの視線方向を検出できるとともに、視線検出に要する処理時間の増加を抑制できる。 The line-of-sight detection device disclosed in this specification can detect the user's line-of-sight direction regardless of the brightness of the surrounding environment, and can suppress an increase in processing time required for line-of-sight detection.
以下、図を参照しつつ、一つの実施形態による、視線検出装置について説明する。
この視線検出装置は、周囲の環境が明るい条件でも顔の輪郭が検出できるような少ない露光量が想定される露出条件でユーザの顔を複数回撮影することにより複数の原画像を作成する。そしてこの視線検出装置は、相対的に少ない枚数の原画像を合成した第1の合成画像からユーザの顔の輪郭または部位を検出することで、ユーザの顔を検出する。一方、この視線検出装置は、相対的に多い枚数の原画像を合成した第2の合成画像からプルキンエ像及び瞳孔の重心を検出することでユーザの視線方向を検出する。
なお、合成とは、例えば、複数画像間での対応画素の輝度値の加算値を算出し、加算値を合成画像上の対応画素に設定するものである。また、加算において、輝度値の加算値が画素の輝度値の上限値以上となる場合は、その上限値を合成画像上の対応画素の輝度値とする。
Hereinafter, a gaze detection apparatus according to one embodiment will be described with reference to the drawings.
This line-of-sight detection device creates a plurality of original images by photographing a user's face a plurality of times under an exposure condition that is assumed to have a small exposure amount so that the outline of the face can be detected even under a bright surrounding environment. The line-of-sight detection apparatus detects the user's face by detecting the contour or part of the user's face from the first synthesized image obtained by synthesizing a relatively small number of original images. On the other hand, this gaze detection apparatus detects the user's gaze direction by detecting the Purkinje image and the center of gravity of the pupil from the second synthesized image obtained by synthesizing a relatively large number of original images.
Note that the synthesis is, for example, calculating an addition value of luminance values of corresponding pixels between a plurality of images and setting the addition value to the corresponding pixel on the synthesized image. In addition, when the addition value of the luminance value is equal to or higher than the upper limit value of the luminance value of the pixel in the addition, the upper limit value is set as the luminance value of the corresponding pixel on the composite image.
本実施形態による視線検出装置は、ユーザの視線方向を利用する様々な装置に実装される。例えば、視線検出装置は、携帯端末または車載運転支援装置に実装される。視線検出装置が携帯端末に実装される場合、例えば、携帯端末は、視線検出装置から受け取ったユーザの視線方向に関する情報に基づいて、携帯端末が有するディスプレイ上でユーザが注視する位置を特定し、その位置に表示されたアイコンに応じた処理を実行する。 The line-of-sight detection apparatus according to the present embodiment is mounted on various apparatuses that use the user's line-of-sight direction. For example, the line-of-sight detection device is mounted on a mobile terminal or an in-vehicle driving support device. When the line-of-sight detection device is mounted on a mobile terminal, for example, the mobile terminal specifies the position where the user gazes on the display of the mobile terminal based on information about the user's line-of-sight direction received from the line-of-sight detection device, A process corresponding to the icon displayed at the position is executed.
また、視線検出装置が車載運転支援装置に実装される場合、例えば、その運転支援装置は、視線検出装置から受け取ったユーザの視線方向に関する情報に基づいて、ユーザの視線方向が車両前方の所定範囲から外れているか否か判定する。そして、車両が前進している間の一定期間に渡ってユーザの視線方向がその所定範囲から外れていれば、運転支援装置は、ユーザが余所見していると判定し、スピーカなどを通じてユーザに警報音を発する。さらに、運転支援装置は、視線検出装置からユーザの顔の向きに関する情報を受け取り、その情報に基づいてユーザが横を向いているか否かを判定し、ユーザが横を向いている場合に警報音を発するようにしてもよい。 Further, when the line-of-sight detection device is mounted on an in-vehicle driving support device, for example, the driving support device is configured so that the user's line-of-sight direction is a predetermined range in front of the vehicle based on information about the user's line-of-sight received from the line-of-sight detection device It is determined whether it is off. If the user's line-of-sight direction deviates from the predetermined range over a certain period while the vehicle is moving forward, the driving support device determines that the user is looking around and alerts the user through a speaker or the like. Make a sound. Further, the driving support device receives information on the face direction of the user from the line-of-sight detection device, determines whether or not the user is facing side based on the information, and warns when the user is facing sideways. May be issued.
図1は、一つの実施形態による視線検出装置のハードウェア構成図である。視線検出装置1は、光源2と、カメラ3と、インターフェース部4と、メモリ5と、制御部6とを有する。なお、図1は、視線検出装置1が有する構成要素を説明するための図であり、視線検出装置1の各構成要素の実際の配置を表した図ではないことに留意されたい。例えば、視線検出装置1が有する各構成要素は、一つの筺体内に収容されていてもよく、一部の構成要素が他の構成要素とは別個に配置されてもよい。例えば、視線検出装置1が車載運転支援装置に実装される場合、光源2は、インスツルメントパネルまたは車室内前方の天井付近においてユーザへ向けて光を発するように取り付けられる。またカメラ3も、例えば、インスツルメントパネルまたは車室内前方の天井付近に、ユーザの方を向けて取り付けられる。そして光源2及びカメラ3は、信号線を介して、インターフェース部4、メモリ5及び制御部6が実装され、インスツルメントパネルの裏側に配置された回路基板と接続されてもよい。
FIG. 1 is a hardware configuration diagram of a line-of-sight detection device according to one embodiment. The line-of-sight detection device 1 includes a light source 2, a camera 3, an interface unit 4, a memory 5, and a
光源2は、ユーザの顔、特に眼及びその周囲を照明する。そのため、光源2は、例えば、少なくとも一つの赤外発光ダイオードと、制御部6からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。そして光源2は、制御部6から光源を点灯させる制御信号を受信している間、照明光を発する。
なお、視線検出装置1が有する光源2の数は、1個に限られず、複数個であってもよい。
The light source 2 illuminates the user's face, particularly the eyes and surroundings. Therefore, the light source 2 includes, for example, at least one infrared light emitting diode and a drive circuit that supplies power from a power source (not shown) to the infrared light emitting diode in accordance with a control signal from the
Note that the number of light sources 2 included in the line-of-sight detection device 1 is not limited to one, and may be plural.
カメラ3は、撮像部の一例であり、ユーザの顔が写った原画像を生成する。そのために、カメラ3は、光源2の光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にユーザの顔の像を結像する撮像光学系を有する。カメラ3は、虹彩による反射像及び光源2以外の光源からの光の角膜反射像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。またカメラ3は、原画像上で、ユーザの角膜に光源2の像が写るように配置される。 The camera 3 is an example of an imaging unit, and generates an original image in which a user's face is shown. For this purpose, the camera 3 has an image sensor having a solid-state imaging device arranged in a two-dimensional manner having sensitivity to light from the light source 2 and an imaging optical system that forms an image of the user's face on the image sensor. . The camera 3 further includes a visible light cut filter between the image sensor and the imaging optical system in order to suppress detection of a reflection image by the iris and a corneal reflection image of light from a light source other than the light source 2. May be. The camera 3 is arranged so that an image of the light source 2 appears on the user's cornea on the original image.
また、画像が光源2のプルキンエ像を識別できる程度の解像度を有するように、カメラ3のイメージセンサの画素数は、例えば、100万、200万、あるいは400万とすることができる。またイメージセンサにより生成される画像はカラー画像であり、画素ごとに赤色(R)、緑色(G)及び青色(B)の3色の成分を持つ。各色成分は、例えば、0〜255の何れかの値をとり、色成分値が大きいほど、その色の輝度が高い。あるいは、イメージセンサにより生成される画像は、光の強度が強いほど各画素の輝度が高くなるモノクロ画像であってもよい。 Further, the number of pixels of the image sensor of the camera 3 can be set to, for example, 1 million, 2 million, or 4 million so that the image has a resolution that can identify the Purkinje image of the light source 2. An image generated by the image sensor is a color image, and each pixel has three color components of red (R), green (G), and blue (B). Each color component takes any value from 0 to 255, for example. The larger the color component value, the higher the luminance of the color. Alternatively, the image generated by the image sensor may be a monochrome image in which the luminance of each pixel increases as the light intensity increases.
カメラ3は、視線検出処理が実行されている間、制御部6から通知された所定の周期及び所定の露出条件で連続的にユーザの顔を撮影することにより、ユーザの顔が写った原画像を複数生成する。カメラ3は、原画像を生成する度に、生成した原画像を制御部6へ出力する。
While the line-of-sight detection process is being performed, the camera 3 continuously captures the user's face with a predetermined period and a predetermined exposure condition notified from the
インターフェース部4は、視線検出装置1を、他の機器、例えば、視線検出装置1が実装された装置と接続するためのインターフェース回路を有する。例えば、視線検出装置1が車載運転支援装置に実装されている場合、インターフェース部4は、例えば、コントロールエリアネットワーク(Controller Area Network, CAN)に準じた通信回線を介して信号を送信または受信するための回路を有する。そしてインターフェース部4は、例えば、制御部6から受け取った、ユーザの視線方向または顔向きに関する情報を、CANを介して視線検出装置1と接続されている車載運転支援装置の制御基板へ送信する。
The interface unit 4 includes an interface circuit for connecting the line-of-sight detection device 1 to another device, for example, a device on which the line-of-sight detection device 1 is mounted. For example, when the line-of-sight detection device 1 is mounted on an in-vehicle driving support device, the interface unit 4 transmits or receives a signal via a communication line conforming to a control area network (CAN), for example. Circuit. And the interface part 4 transmits the information regarding a user's gaze direction or face direction received from the
メモリ5は、例えば、読み書き可能な不揮発性の半導体メモリを有する。そしてメモリ5は、制御部6上で実行される視線検出処理のプログラムを記憶する。またメモリ5は、例えば、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザの視線方向との関係を表す視線方向参照テーブルなど、ユーザの視線方向またはユーザの顔を検出するために利用される各種のデータを記憶する。
またメモリ5は、直近に撮影された所定枚数の原画像と、ユーザの顔などの検出に用いられる第1の合成画像と、瞳孔及びプルキンエ像の検出に用いられる第2の合成画像とを記憶する。なお、所定枚数は、例えば、第2の合成画像の生成に利用される原画像の最大数である。なお、合成画像の詳細については後述する。
The memory 5 includes, for example, a readable / writable nonvolatile semiconductor memory. The memory 5 stores a program for eye gaze detection processing executed on the
The memory 5 stores a predetermined number of original images taken most recently, a first composite image used for detecting a user's face and the like, and a second composite image used for detecting a pupil and Purkinje image. To do. Note that the predetermined number is, for example, the maximum number of original images used for generating the second composite image. Details of the composite image will be described later.
制御部6は、一つまたは複数のプロセッサ及びその周辺回路を有し、視線検出装置1の各部と信号線を通じて接続されている。そして制御部6は、視線検出装置1の各部へ信号線を通じて制御信号を送信することで視線検出装置1の各部を制御する。
制御部6は、ユーザの視線方向の情報を用いるアプリケーションが、視線検出装置1が実装されている装置で実行されている間、視線方向検出処理を実行する。また制御部6は、視線検出装置1の起動時、あるいは上記のようなアプリケーションの起動時など、特定のタイミングにおいて、光源のプルキンエ像と瞳孔重心との相対的な位置関係とユーザの視線方向との関係を求めるキャリブレーション処理を実行する。
The
The
図2は、制御部6の機能ブロック図である。制御部6は、光源制御部11と、カメラ制御部12と、画像生成部13と、顔検出部14と、プルキンエ像検出部15と、視線検出部16と、キャリブレーション部17とを有する。
光源制御部11、カメラ制御部12、画像生成部13、顔検出部14、プルキンエ像検出部15、視線検出部16及びキャリブレーション部17は、制御部6が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。
あるいは、光源制御部11、カメラ制御部12、画像生成部13、顔検出部14、プルキンエ像検出部15、視線検出部16及びキャリブレーション部17は、それぞれ、制御部6が有するプロセッサとは別個の回路として形成されてもよい。あるいは光源制御部11、カメラ制御部12、画像生成部13、顔検出部14、プルキンエ像検出部15、視線検出部16及びキャリブレーション部17は、その各部に対応する回路が集積された一つの集積回路として視線検出装置1に実装されてもよい。
FIG. 2 is a functional block diagram of the
The light source control unit 11, the
Alternatively, the light source control unit 11, the
光源制御部11は、光源2を点灯または消灯させる。光源制御部11は、例えば、視線検出処理の実行中、光源2を点灯させる。また光源制御部11は、光源2が複数含まれる場合、同時に2個以上の光源が点灯するように各光源へ制御信号を送信してもよい。同時に複数の光源が点灯すると、プルキンエ像にも点灯している複数の光源の像が含まれるので、視線検出装置1は、画像上での輝点の配置パターンが、実際に点灯している光源の配置パターンと一致するか否か調べることができる。そのため、視線検出装置1は、室内灯または太陽など、他の光源の像と視線検出装置1が有する光源の像とを識別し易くなる。 The light source control unit 11 turns on or off the light source 2. For example, the light source control unit 11 turns on the light source 2 during execution of the line-of-sight detection process. In addition, when a plurality of light sources 2 are included, the light source control unit 11 may transmit a control signal to each light source so that two or more light sources are turned on simultaneously. When a plurality of light sources are turned on at the same time, the Purkinje image also includes images of a plurality of light sources that are turned on. Therefore, the line-of-sight detection device 1 uses a light source in which the arrangement pattern of bright spots on the image is actually turned on. It can be checked whether or not it matches the arrangement pattern. Therefore, the line-of-sight detection device 1 can easily distinguish between an image of another light source such as an indoor lamp or the sun and an image of the light source included in the line-of-sight detection device 1.
カメラ制御部12は、カメラ3が撮影する周期及び露出条件を制御する。カメラ制御部12は、例えば、視線検出処理の実行中、ユーザが所定の方向を注視している間にカメラ3が複数回の撮影を行えるような周期、例えば、30m秒〜300m秒周期で、カメラ3に連続的に撮影させる。またカメラ制御部12は、例えば、カメラ3の撮影対象範囲内の平均照度が想定される最大値である場合に原画像上でユーザの顔に相当する画素の輝度値が飽和しない露出条件で、カメラ3に各回の撮影を実行させる。これにより、原画像上では、輝度値の飽和により顔が識別不能となることがない。そのため、制御部6は、第1の合成画像を作成する際に、その合成に利用する原画像の枚数を最初に小さく設定しておき、その後その枚数を増やしていくだけで、ユーザの顔の検出に用いるのに適切な合成画像を作成できる。この露出条件は、例えば、実験的あるいはカメラ3の撮像素子の感度などに基づいて計算により求められる。さらに、露出条件は、第2の合成画像上でプルキンエ像が検出できるように、各原画像において、プルキンエ像及びその周囲の画素が最小輝度値とならないように設定されることが好ましい。
The
カメラ制御部12は、撮影周期及び露出条件をカメラ3に通知する。なお、露出条件には、例えば、シャッタ速度及びF値が含まれる。またカメラ制御部12は、視線検出処理が開始されると、カメラ3へ撮影を開始させることを指示する制御信号を送信する。一方、カメラ制御部12は、カメラ3から原画像を受け取る度に、その原画像を一旦メモリ5に記憶させる。
The
画像生成部13は、メモリ5に記憶されている第1の積算数の原画像を合成することにより、第1の合成画像を生成する。また画像生成部13は、メモリ5に記憶されている、第1の積算数よりも多い第2の積算数の原画像を合成することにより第2の合成画像を生成する。
The
各原画像に対する露出条件は一定であるため、合成に用いる原画像の枚数が多いほど、合成画像は、露光量が多い露出条件で撮影された画像と実質的に同じ画像となる。従って、原画像の枚数が少なければ、合成画像上では、原画像において相対的にコントラストが低い領域、例えば、影になっている部分のコントラストは十分な高さにならない。一方、原画像において相対的にコントラストが高い領域、例えば、顔が環境光により照らされている場合の顔の輪郭部分は、合成に用いる原画像の枚数が少ない合成画像上でも十分なコントラストを持つ。そのため、このような原画像の枚数が少ない合成画像は、顔の輪郭及び眼、鼻、口など、比較的周囲との輝度差が大きい部位の検出に適している。 Since the exposure condition for each original image is constant, the greater the number of original images used for composition, the substantially the same image as the image captured under the exposure condition with a larger exposure amount. Therefore, if the number of original images is small, the contrast of an area with relatively low contrast in the original image, for example, a shadowed portion, is not sufficiently high on the composite image. On the other hand, a region having a relatively high contrast in the original image, for example, a face outline portion when the face is illuminated by ambient light, has a sufficient contrast even on a synthesized image in which the number of original images used for synthesis is small. . Therefore, such a composite image with a small number of original images is suitable for detection of a part having a relatively large luminance difference from the surroundings, such as a face outline and eyes, nose and mouth.
一方、合成に用いる原画像の枚数が多い合成画像では、環境光により照らされている領域に含まれる画素の値は飽和してしまう。そのため、例えば、顔が一方から環境光により照らされている場合、合成画像上ではその照らされている領域内の画素の輝度がその取り得る最大値で一定になってしまい、合成画像上でその領域に写っている部位は識別不能になる。しかし、原画像においてコントラストが低い領域では、近傍画素間の輝度差が原画像の枚数に応じて大きくなるので、そのような領域に写っている部位を識別することは容易になる。そのため、原画像の枚数の多い合成画像は、環境光により影になることがある、瞳孔及びプルキンエ像などを検出するのに適している。 On the other hand, in a composite image in which the number of original images used for composition is large, the values of pixels included in the area illuminated by the ambient light are saturated. Therefore, for example, when the face is illuminated by ambient light from one side, the brightness of the pixels in the illuminated area on the composite image becomes constant at the maximum value that can be taken, and on the composite image The part in the area becomes indistinguishable. However, in a region where the contrast is low in the original image, the luminance difference between neighboring pixels increases according to the number of original images, so that it is easy to identify a part that appears in such a region. Therefore, a composite image having a large number of original images is suitable for detecting a pupil, a Purkinje image, or the like that may be shaded by ambient light.
図3(a)は合成に用いた原画像の枚数が相対的に少ない第1の合成画像の一例を示す図であり、図3(b)は図3(a)に示した合成画像における眼の部分を拡大した図である。この第1の合成画像300では、顔の輪郭、及び眼、鼻、口などの部位が識別可能なコントラストで写っている。一方、図3(b)に示されるように、眼の角膜領域310は、ほぼ一様に暗くなっており、そのため、合成画像300からプルキンエ像を検出することは困難である。
FIG. 3A is a diagram showing an example of a first composite image in which the number of original images used for composition is relatively small, and FIG. 3B is an eye in the composite image shown in FIG. It is the figure which expanded the part. In the first
図4(a)は合成に用いた原画像の枚数が相対的に多い第2の合成画像の一例を示す図であり、図4(b)は図4(a)に示した合成画像における眼の部分を拡大した図である。この第2の合成画像400では、領域410に含まれる画素の輝度が飽和しているため、その領域410に含まれる顔の輪郭を検出することは困難である。一方、図4(b)に示されるように、眼の角膜領域420は、十分なコントラストを有し、角膜領域420内のプルキンエ像430とその周囲との間の輝度差も大きい。そのため、合成画像400からプルキンエ像を検出することは容易である。
FIG. 4A is a diagram showing an example of a second synthesized image in which the number of original images used for synthesis is relatively large, and FIG. 4B is an eye in the synthesized image shown in FIG. It is the figure which expanded the part. In the second
そこで、第1の合成画像は、顔の領域を検出するために利用され、一方、第2の合成画像は、プルキンエ像を利用する視線方向の検出に利用される。
第1及び第2の積算数を決定するために、例えば、視線検出装置1が実装された装置が、その装置の周囲の照度を測定する照度計を有している場合、画像生成部13は、インターフェース部4を介してその照度計から照度の測定値を取得する。この場合、メモリ5には、予め照度と第1及び第2の積算数との関係を表す積算数参照テーブルが記憶される。そして画像生成部13は、積算数参照テーブルを参照することにより、照度の測定値に対応する第1及び第2の積算数を決定する。
なお、第1の積算数は、例えば、実験的に、第1の合成画像上で顔の輪郭及び眼、鼻、口などの各部位が識別できるようなコントラストが得られるように設定される。一方、第2の積算数は、例えば、実験的に、第2の合成画像上で瞳孔及びプルキンエ像が識別できるようなコントラストが得られるように設定される。
Thus, the first composite image is used to detect a face region, while the second composite image is used to detect a line-of-sight direction using a Purkinje image.
In order to determine the first and second integration numbers, for example, when the device on which the line-of-sight detection device 1 is mounted has an illuminometer that measures the illuminance around the device, the
Note that the first cumulative number is set so that, for example, a contrast is obtained experimentally so that the contour of the face and each part such as the eyes, nose, and mouth can be identified on the first composite image. On the other hand, the second integration number is set so that, for example, a contrast is obtained experimentally so that the pupil and the Purkinje image can be identified on the second composite image.
また、画像生成部13は、メモリ5に記憶されている何れかの原画像、例えば最新の原画像上の所定領域の平均輝度値に基づいて第1及び第2の積算数を決定してもよい。所定領域は、原画像上で顔が写っている可能性が高い領域、例えば、原画像の中心を含む、原画像の幅及び高さの1/4〜1/2の幅及び高さを持つ部分領域とすることができる。
Further, the
さらに、画像生成部13は、顔検出部14から顔の検出または顔の向きの検出に失敗したことを通知されると、第1の積算数を1以上の所定数だけ増やすよう修正する。そして画像生成部13は、修正された第1の積算数の原画像を合成することにより、修正された第1の合成画像を生成し、その修正された第1の合成画像を再度顔検出部14へ渡す。同様に、画像生成部13は、プルキンエ像検出部15から瞳孔の検出またはプルキンエ像の検出に失敗したことを通知されると、第2の積算数を1以上の所定数だけ増やすよう修正する。そして画像生成部13は、修正された第2の積算数の原画像を合成することにより、修正された第2の合成画像を生成し、その修正された第2の合成画像を再度プルキンエ検出部15へ渡す。
Further, when notified by the
画像生成部13は、第1の合成画像を生成するため、第1の合成画像の各画素について、第1の積算数の原画像の当該画素の値の和を求め、その和を第1の合成画像のその当該画素の値とする。同様に、画像生成部13は、第2の合成画像を生成するため、第2の合成画像の各画素について、第2の積算数の原画像の当該画素の値の和を求め、その和を第2の合成画像のその当該画素の値とする。なお、原画像がカラー画像である場合、画像生成部13は、それぞれの色について画素ごとにその色値の和を算出する。
画像生成部13は、第1の合成画像を顔検出部14へ渡し、一方、第2の合成画像をプルキンエ像検出部15へ渡す。
In order to generate the first composite image, the
The
顔検出部14は、視線検出処理またはキャリブレーション処理の実行中において、第1の合成画像上で、ユーザの顔を検出する。
本実施形態では、撮影時において、ユーザの顔は光源2からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、画像上で顔の肌の部分が写っている画素の輝度は高い。一方、画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは光源から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで、顔検出部14は、画像の各画素の値がRGB表色系により表されているカラー画像である場合、各画素の値をYUV表色系により表される値に変換する。そして顔検出部14は、各画素の輝度成分(Y成分)の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。なお、画像の各画素の値が輝度を表すモノクロ画像である場合、顔検出部14は、各画素の値を所定の閾値と比較する。所定の閾値は、例えば、画像上の輝度成分の最大値に0.8を乗じた値に設定される。
The
In the present embodiment, at the time of shooting, the user's face is illuminated with infrared light from the light source 2, and the reflectance of the skin with respect to the infrared light is relatively high (for example, the reflectance of the skin is near infrared. (Several tens of percent in the wavelength range), the brightness of the pixels in which the skin of the face is reflected on the image is high. On the other hand, since the area of the hair or the user's back area on the image has a low reflectance with respect to infrared light or is far from the light source, the luminance of the pixel in which the hair or the area behind the user is reflected is relatively low.
Therefore, when the value of each pixel of the image is a color image represented by the RGB color system, the
また、第1の合成画像上でユーザの顔が占める領域は比較的大きく、かつ、第1の合成画像上で顔が占める領域の大きさもある程度推定される。
そこで顔検出部14は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして顔検出部14は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、顔検出部14はその顔候補領域をユーザの顔が写っている顔領域と判定する。
なお、顔候補領域の大きさは、例えば、顔候補領域の水平方向の最大幅の画素数で表される。この場合、基準範囲は、例えば、第1の合成画像の水平方向画素数の1/4以上〜2/3以下に設定される。あるいは、顔候補領域の大きさは、例えば、顔候補領域に含まれる画素数で表されてもよい。この場合、基準範囲は、例えば、第1の合成画像全体の画素数の1/16以上〜4/9以下に設定される。
Further, the area occupied by the user's face on the first composite image is relatively large, and the size of the area occupied by the face on the first composite image is estimated to some extent.
Therefore, the
Note that the size of the face candidate area is represented by, for example, the maximum number of pixels in the horizontal direction of the face candidate area. In this case, the reference range is set to, for example, not less than 1/4 and not more than 2/3 of the number of pixels in the horizontal direction of the first composite image. Alternatively, the size of the face candidate area may be represented by the number of pixels included in the face candidate area, for example. In this case, the reference range is set to, for example, 1/16 or more and 4/9 or less of the total number of pixels of the first composite image.
顔検出部14は、顔候補領域の大きさだけでなく、顔候補領域の形状も、顔候補領域を顔領域と判定するための判定条件に加えてもよい。人の顔は、一般に略楕円形状を有している。そこで顔検出部14は、例えば、顔候補領域の大きさが上記の基準範囲に含まれ、かつ、顔候補領域の円形度が、一般的な顔の輪郭に相当する所定の閾値以上である場合に顔候補領域を顔領域としてもよい。なお顔検出部14は、顔候補領域の輪郭上に位置する画素の合計を顔候補領域の周囲長として求め、顔候補領域内の総画素数に4πを乗じた値を周囲長の2乗で除することにより円形度を算出できる。
The
あるいは、顔検出部14は、顔候補領域の輪郭上の各画素の座標を楕円方程式に当てはめて最小二乗法を適用することにより、顔候補領域を楕円近似してもよい。そして顔検出部14は、その楕円の長軸と短軸の比が一般的な顔の長軸と短軸の比の範囲に含まれる場合に、顔候補領域を顔領域としてもよい。なお、顔検出部14は、楕円近似により顔候補領域の形状を評価する場合、第1の合成画像の各画素の輝度成分に対して近傍画素間演算を行ってエッジに相当するエッジ画素を検出してもよい。この場合、顔検出部14は、エッジ画素を例えばラベリング処理を用いて連結し、一定の長さ以上に連結されたエッジ画素を顔候補領域の輪郭とする。
Alternatively, the
なお、顔検出部14は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、顔検出部14は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。
The
顔検出部14は、顔領域を抽出できると、顔領域を表す情報を生成する。例えば、顔領域を表す情報は、画像と同一のサイズを有し、かつ顔領域内の画素と顔領域外の画素とが異なる画素値を持つ2値画像とすることができる。
そして顔検出部14は、顔領域を表す情報をプルキンエ像検出部15へ渡す。一方、顔検出部14は、顔領域の検出に失敗した場合、例えば、上述した顔領域の検出条件が満たされない場合、画像生成部13へ第1の積算数を増やすよう通知する。
When the
The
さらに、顔検出部14は、ユーザの顔向きを判定してもよい。この場合、顔検出部14は、例えば、顔領域内で眼、鼻の穴、口などの特徴的な部位を検出する。そのために、例えば、顔検出部14は、顔領域と一般的なそれらの部位の形状に相当するテンプレートとの間で相対的な位置を変えつつテンプレートマッチングを行って、顔領域とテンプレートとの一致度を算出する。そして顔検出部14は、顔領域内の特定位置で一致度が所定値以上である場合に、その特定位置にテンプレートに相当する部位が写っていると判定する。
Furthermore, the
顔検出部14は、部位の位置情報に基づいて顔の中心線を求める。例えば、顔検出部14は、左右の鼻の穴の重心を結ぶ線の第1の中点を求める。また顔検出部14は、左右の眼の重心を結ぶ線の第2の中点を求める。そして顔検出部14は、第1の中点と第2の中点を結ぶ線を顔中心線とする。
顔検出部14は顔中心線の左右の顔領域の画素数の比率、あるいは、顔中心線上の所定の点から顔領域の左右の端点までの最大距離の比率を求める。そして顔検出部14は、その比率と、顔の向きとの関係を表す顔向き参照テーブルを参照することにより、ユーザの顔の向きを決定する。なお、その比率と顔の向きとの関係は、予め実験により決定され、その関係を表す顔向き参照テーブルは、予めメモリ5に記憶される。
The
The
顔検出部14は、例えば、カメラ3に対して正対しているときの顔の向きを0°とし、カメラ3から見て右側を向いているときに正の値、左側を向いているときに負の値を持つ、顔の向きを表す水平方向の角度値を作成する。同様に、顔検出部14は、カメラ3に対して正対しているときの顔の向きを0°とし、カメラ3から見て上側を向いているときに正の値、下側を向いているときに負の値を持つ、顔の向きを表す垂直方向の角度値を作成する。そして顔検出部14は、その水平方向の角度値と垂直方向の角度値の組み合わせを、顔の向きを表す情報としてインターフェース部4を介して出力する。
For example, the
プルキンエ像検出部15は、視線検出処理またはキャリブレーション処理の実行中において、第2の合成画像上の顔領域内でユーザの眼が写っている領域を検出し、眼が写っている領域内でプルキンエ像を検出する。
眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこでプルキンエ像検出部15は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そしてプルキンエ像検出部15は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。
あるいは、プルキンエ像検出部15は、画像上の眼の像を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
The Purkinje
The luminance of the pixel corresponding to the eye is significantly different from the luminance of the pixel corresponding to the periphery of the eye. Therefore, the Purkinje
Alternatively, the Purkinje
さらに、プルキンエ像検出部15は、眼の領域内で瞳孔が写っている領域を検出する。本実施形態では、プルキンエ像検出部15は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そしてプルキンエ像検出部15は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、プルキンエ像検出部15は、各テンプレートと眼の領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、プルキンエ像検出部15は、一致度の最高値に対応するテンプレートと重なった領域に瞳孔が写っていると判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。
Further, the Purkinje
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこでプルキンエ像検出部15は、眼の領域内で、同心円状に半径の異なる2本のリングを設定する。そしてプルキンエ像検出部15は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。またプルキンエ像検出部15は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼の領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
プルキンエ像検出部15は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の座標として算出する。一方、プルキンエ像検出部15は、瞳孔領域の検出に失敗した場合、画像生成部13へ第2の積算数を増やすよう通知する。
The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Therefore, the
When the Purkinje
またプルキンエ像検出部15は、眼の領域内で光源2のプルキンエ像を検出する。光源2のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高い。また、光源2のプルキンエ像が写っている領域の形状は、各光源の発光面の形状と略一致する。そこでプルキンエ像検出部15は、眼の領域内で、光源の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そしてプルキンエ像検出部15は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い領域を検出する。そしてプルキンエ像検出部15は、その検出された領域内の内側のリングで囲まれた領域を光源2のプルキンエ像とする。なお、差分閾値は、例えば、眼の領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼の領域内での輝度値の最高値の80%とすることができる。
The Purkinje
なお、プルキンエ像検出部15は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、プルキンエ像検出部15は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
Note that the Purkinje
プルキンエ像検出部15は、光源2のプルキンエ像の検出に成功した場合、光源に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の座標として算出する。一方、プルキンエ像検出部15は、光源のプルキンエ像の検出に失敗した場合、画像生成部13へ第2の積算数を増やすよう通知する。
プルキンエ像検出部15は、キャリブレーション処理の実行時の場合、プルキンエ像の重心及び瞳孔重心をキャリブレーション部17へ通知する。一方、プルキンエ像検出部15は、視線検出処理の実行時には、プルキンエ像の重心及び瞳孔重心を視線検出部16へ通知する。
When the Purkinje
The Purkinje
視線検出部16は、視線検出処理の実行中において、プルキンエ像の重心及び瞳孔重心に基づいて、ユーザの視線方向を検出する。
The line-of-
角膜の表面は略球形であるため、視線方向によらず、光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、視線検出部16は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。
Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the light source is substantially constant regardless of the line-of-sight direction. On the other hand, the center of gravity of the pupil moves according to the user's line-of-sight direction. Therefore, the line-of-
本実施形態では、視線検出部16は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部16は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す視線方向参照テーブルを参照することにより、ユーザの視線方向を決定する。視線検出部16は、ユーザの視線方向を、インターフェース部4を介して出力する。
In the present embodiment, the line-of-
図5は、視線方向参照テーブルの一例を示す図である。視線方向参照テーブル500の左側の列の各欄には、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置の座標が表される。また視線方向参照テーブル500の右側の列の各欄には、同じ行の瞳孔重心の相対的な位置の座標に対応する視線方向が表される。なお、瞳孔重心の相対的な位置の座標は、第2の合成画像上の画素単位で表される。一方、視線方向は、所定方向、例えば、ユーザの視線方向がカメラ3の光軸と平行な方向を基準方向とし、基準方向と視線方向とがなす水平方向の角度と垂直方向の角度の組で表される。例えば、行501には、瞳孔重心の相対的な位置の座標(0,0)に対する視線方向が(0°,0°)であることが示されている。また、行502には、瞳孔重心の相対的な位置の座標(-2,0)に対する視線方向が(-10°,0°)であることが示されている。
FIG. 5 is a diagram illustrating an example of a line-of-sight direction reference table. In each column in the left column of the line-of-sight direction reference table 500, coordinates of the relative position of the pupil centroid with respect to the centroid of the Purkinje image of the light source are represented. In each column in the right column of the line-of-sight direction reference table 500, the line-of-sight direction corresponding to the coordinates of the relative position of the pupil center of gravity in the same row is represented. Note that the coordinates of the relative position of the pupil center of gravity are expressed in units of pixels on the second composite image. On the other hand, the line-of-sight direction is a set of a predetermined direction, for example, a direction in which the user's line-of-sight direction is parallel to the optical axis of the camera 3 and a horizontal direction angle and a vertical direction angle formed by the reference direction and the line-of-sight direction. expressed. For example,
キャリブレーション部17は、キャリブレーション処理を実行することにより視線方向参照テーブルを更新する。
キャリブレーション部17は、例えば、制御部6から視線検出装置1が起動したことを示す信号を受信したときに、キャリブレーション処理を実行する。キャリブレーション処理が開始されると、キャリブレーション部17は、例えば、視線検出装置1が実装された装置のディスプレイなどのユーザインターフェースを介して、ユーザに、所定の基準位置を見ることを指示するメッセージを報知する。基準位置は、例えば、視線検出装置1が実装された装置のディスプレイの中心、あるいはカメラ3の設置位置などとすることができる。またキャリブレーションの実行中、ユーザは、その基準位置を注視するものとする。
The
For example, when the
キャリブレーション部17は、ユーザが基準位置を注視しているときに撮影された原画像から作成される第2の合成画像に基づいて検出された、プルキンエ像の重心及び瞳孔重心の座標をプルキンエ像検出部15から受け取る。そしてキャリブレーション部17は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、基準位置に対応する視線方向に対応させるよう、視線方向参照テーブルを更新する。同様に、キャリブレーション部17は、ユーザが他の基準位置を注視しているときに撮影された原画像に基づいて作成された第2の合成画像から求められたプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、その基準位置に対応する視線方向と対応づけるよう視線方向参照テーブルを更新する。
さらに、キャリブレーション部17は、その他の視線方向に対するプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、既に求められている視線方向に対応する瞳孔重心の相対的な位置を用いて例えば線形補間することにより決定する。
キャリブレーション部17は、更新された視線方向参照テーブルをメモリ5に保存する。
The
Further, the
The
図6及び図7は、制御部6により制御される視線検出処理の動作フローチャートである。制御部6は、所定の周期、例えば、100m秒〜1秒間隔で、この動作フローチャートに示される視線検出処理を繰返し実行する。
6 and 7 are operation flowcharts of the line-of-sight detection process controlled by the
制御部6のカメラ制御部12は、カメラ3から、所定の周期及び所定の露出条件でユーザの顔を撮影した複数の原画像を取得する(ステップS101)。そしてカメラ制御部12は、各原画像をメモリ5に一時的に記憶させる。また、制御部6の画像生成部13は、第1の積算数を決定する(ステップS102)。画像生成部13は、第1の積算数の原画像を合成することにより第1の合成画像を作成する(ステップS103)。そして画像生成部13は、第1の合成画像を制御部6の顔検出部14へ渡す。
The
顔検出部14は、第1の合成画像に対して顔領域及び顔向き検出処理を実行する(ステップS104)。そして顔検出部14は、顔領域及び顔向きが検出できたか否か判定する(ステップS105)。顔検出部14は、顔領域または顔向きの何れかが検出できなかった場合(ステップS105−No)、画像生成部13へ第1の積算数を増やすよう通知する。そして画像生成部13は、第1の積算数を1以上の所定数だけ増やす(ステップS106)。そして制御部6は、ステップS103以降の処理を再度実行する。
The
一方、顔検出部14は、顔領域と顔向きの両方が検出できた場合(ステップS105−Yes)、顔領域をプルキンエ像検出部15へ通知する。また顔検出部14は、顔向きを表す情報をインターフェース部4を介して視線検出装置1が実装された装置へ出力する(ステップS107)。
On the other hand, the
図7に示されるように、画像生成部13は、第1の積算数よりも多い第2の積算数を決定する(ステップS108)。そして画像生成部13は、第2の積算数の原画像を合成することにより第2の合成画像を作成する(ステップS109)。画像生成部13は、第2の合成画像をプルキンエ像検出部15へ渡す。プルキンエ像検出部15は、第2の合成画像上の顔領域に対して瞳孔及びプルキンエ像の検出処理を実行する(ステップS110)。そしてプルキンエ像検出部15は、瞳孔及びプルキンエ像が検出できたか否か判定する(ステップS111)。プルキンエ像検出部15は、瞳孔またはプルキンエ像の何れかが検出できなかった場合(ステップS111−No)、画像生成部13へ第2の積算数を増やすよう通知する。そして画像生成部13は、第2の積算数を1以上の所定数だけ増やす(ステップS112)。そして制御部6は、ステップS109以降の処理を再度実行する。
As illustrated in FIG. 7, the
一方、プルキンエ像検出部15は、瞳孔とプルキンエ像の両方が検出できた場合(ステップS111−Yes)、プルキンエ像の重心及び瞳孔重心を視線検出部16へ通知する。視線検出部16は、プルキンエ像の重心と瞳孔重心の相対的な位置関係に基づいてユーザの視線方向を決定する(ステップS113)。そして視線検出部16は、視線方向を表す情報をインターフェース部4を介して視線検出装置1が実装された装置へ出力する(ステップS114)。
On the other hand, if both the pupil and the Purkinje image can be detected (step S111-Yes), the Purkinje
なお、顔検出部14は、ステップS104にて顔領域検出処理のみを実行してもよい。この場合、ステップS105においても、顔検出部14は、顔領域が検出されたか否かを判定する。
Note that the
以上に説明してきたように、この視線検出装置は、所定の露出条件で撮影された原画像を互いに異なる枚数だけ合成することで、顔領域及び顔向きなどの検出に適した合成画像と瞳孔及びプルキンエ像などの検出に適した合成画像とを別個に作成する。そのため、この視線検出装置は、周囲の環境が明るい場合でも、顔領域を参照してユーザの視線方向を検出できる。またこの視線検出装置は、プルキンエ像などの検出に失敗したとしても、原画像の積算数を変更するだけで、プルキンエ像などの検出に適した合成画像を作成できる。したがって、この視線検出装置は、プルキンエ像の検出に失敗してからユーザの眼を再撮影する必要はなく、プルキンエ像が検出できるまでのタイムラグを短縮できるので、視線方向を検出するのに要する時間の増加を抑制できる。 As described above, this line-of-sight detection device combines a composite image suitable for detection of a face region, a face orientation, and the like by combining different numbers of original images captured under a predetermined exposure condition. A composite image suitable for detection such as a Purkinje image is created separately. Therefore, this gaze detection apparatus can detect the user's gaze direction with reference to the face area even when the surrounding environment is bright. Moreover, even if the detection of the Purkinje image or the like fails, this line-of-sight detection device can create a composite image suitable for the detection of the Purkinje image or the like only by changing the cumulative number of original images. Therefore, this line-of-sight detection device does not need to re-photograph the user's eyes after failure to detect the Purkinje image, and can shorten the time lag until the Purkinje image can be detected, so the time required to detect the line-of-sight direction Can be suppressed.
なお、本発明は上記の実施形態に限定されるものではない。例えば、カメラは、視線検出処理の実行中、照明光源が消灯した状態で撮影した暗画像を一定周期で生成してもよい。そして制御部の画像生成部は、第2の合成画像の各画素の輝度値から、暗画像の対応する画素の輝度値を減算することにより得られた差分画像を、補正された第2の合成画像としてもよい。
この場合、暗画像と原画像とでは、光源のプルキンエ像のみが異なり、かつ暗画像にはプルキンエ像が写っていない。そのため、上記のように第2の合成画像と暗画像の差分画像では、プルキンエ像が強調される。一方、角膜上に太陽または室内灯など他の光源の像が写っていても、原画像上の他の光源の像と暗画像上の他の光源の像はほぼ同一であるため、差分画像上では、他の光源の像はキャンセルされてそのコントラストは低下する。そのため、プルキンエ像検出部は、補正された第2の合成画像に基づいてプルキンエ像を検出することで、他の光源の像を視線検出装置が有する光源のプルキンエ像として誤検出し難くなり、より正確にプルキンエ像を検出できる。
なお、暗画像を撮影するための露出条件は、原画像を撮影するための露出条件と同一でもよい。あるいは、暗画像を撮影するための露出条件は、第2の合成画像を1回の撮影で得るための露光量よりも小さく、かつ、原画像を撮影するための露出条件よりも露光量が多くなるように設定されてもよい。
In addition, this invention is not limited to said embodiment. For example, the camera may generate a dark image that is captured in a state where the illumination light source is turned off at a certain period during the execution of the line-of-sight detection process. The image generation unit of the control unit corrects the difference image obtained by subtracting the luminance value of the corresponding pixel of the dark image from the luminance value of each pixel of the second combined image, and corrects the second combined image. It may be an image.
In this case, only the Purkinje image of the light source is different between the dark image and the original image, and the Purkinje image is not reflected in the dark image. Therefore, as described above, the Purkinje image is enhanced in the difference image between the second composite image and the dark image. On the other hand, even if an image of another light source such as the sun or room light is shown on the cornea, the image of the other light source on the original image and the image of the other light source on the dark image are almost the same. Then, the image of the other light source is canceled and its contrast is lowered. Therefore, the Purkinje image detection unit detects the Purkinje image based on the corrected second composite image, so that it becomes difficult to erroneously detect the image of the other light source as the Purkinje image of the light source of the line-of-sight detection device. The Purkinje image can be detected accurately.
Note that the exposure condition for capturing a dark image may be the same as the exposure condition for capturing an original image. Alternatively, the exposure condition for photographing the dark image is smaller than the exposure amount for obtaining the second composite image by one photographing, and the exposure amount is larger than the exposure condition for photographing the original image. It may be set to be.
他の変形例では、顔検出部は、最新の第1の合成画像上での顔領域の位置または顔向きを決定するために、過去に検出された顔領域の位置及び顔向きを参照してもよい。例えば、顔検出部は、ブロックマッチングなどの動き検出処理を利用して、過去の合成画像で検出された顔領域などと最も一致する最新の第1の合成画像上の領域を求め、その領域を顔領域としてもよい。あるいは、顔検出部は、様々なトラッキング技術の何れかを利用して、最新の第1の合成画像上で抽出された顔候補領域中、過去に検出された顔領域の位置から最も確からしい顔候補領域を求めて、その顔候補領域を顔領域としてもよい。さらに、視線検出装置が実装された装置が、ジャイロなどの角速度を検出するセンサを搭載している場合、顔検出部は、そのセンサから角速度に関する情報を取得して、顔向きの判定に利用してもよい。例えば、顔検出部は、過去に顔向きを検出したときから最新の第1の合成画像が得られたときまでの装置の回転角を、角速度に関する情報に基づいて求め、その回転角だけ顔向きが変化したと判定してもよい。
さらに他の変形例では、プルキンエ像検出部は、第2の合成画像全体に対して瞳孔の検出処理を行ってもよい。
In another modification, the face detection unit refers to the position and face orientation of the face area detected in the past in order to determine the position or face orientation of the face area on the latest first composite image. Also good. For example, the face detection unit uses a motion detection process such as block matching to obtain a region on the latest first composite image that most closely matches the face region detected in the past composite image, and determines the region. It may be a face area. Alternatively, the face detection unit uses any of various tracking techniques, and the most probable face from the position of the face area detected in the past among the face candidate areas extracted on the latest first composite image. A candidate area may be obtained and the face candidate area may be used as the face area. Further, when the device on which the line-of-sight detection device is mounted is equipped with a sensor for detecting an angular velocity such as a gyro, the face detection unit acquires information on the angular velocity from the sensor and uses it to determine the face orientation. May be. For example, the face detection unit obtains the rotation angle of the device from the time when the face orientation is detected in the past to the time when the latest first composite image is obtained based on the information about the angular velocity, and the face orientation is determined by the rotation angle. It may be determined that has changed.
In still another modification, the Purkinje image detection unit may perform pupil detection processing on the entire second composite image.
また、上記の実施形態及び変形例による制御部の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。 In addition, the computer program that realizes the function of each unit of the control unit according to the above-described embodiments and modifications is recorded in a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. May be provided.
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。 All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
ユーザの顔を照明する光源と、
所定の露出条件でユーザの顔を複数回撮影することにより複数の原画像を生成する撮像部と、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、かつ、前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成する画像生成部と、
前記第1の合成画像からユーザの顔を検出する顔検出部と、
前記第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出するプルキンエ像検出部と、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する視線検出部と、
を有する視線検出装置。
(付記2)
前記所定の露出条件は、前記撮像部の撮影対象範囲内の平均照度が想定される最大値である場合に前記原画像上で前記ユーザの顔に相当する画素の輝度値が飽和しない条件である、付記1に記載の視線検出装置。
(付記3)
前記顔検出部が前記ユーザの顔の検出に失敗した場合、前記画像生成部は、前記第1の数を所定数増加するよう修正し、前記複数の原画像のうち、該修正された第1の数の原画像を合成することにより修正された第1の合成画像を生成し、前記顔検出部は、該修正された第1の合成画像からユーザの顔を検出する、付記1または2に記載の視線検出装置。
(付記4)
前記プルキンエ像検出部が前記ユーザの瞳孔または前記光源のプルキンエ像の検出に失敗した場合、前記画像生成部は、前記第2の数を所定数増加するよう修正し、前記複数の原画像のうち、該修正された第2の数の原画像を合成することにより修正された第2の合成画像を生成し、前記プルキンエ像検出部は、該修正された第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出する、付記1〜3の何れか一項に記載の視線検出装置。
(付記5)
前記プルキンエ像検出部は、前記顔検出部で検出されたユーザの顔に対応する前記第2の合成画像上の領域内でユーザの瞳孔及び前記光源のプルキンエ像を検出する、付記1〜4の何れか一項に記載の視線検出装置。
(付記6)
前記撮像部は、前記光源が消灯した状態で前記ユーザの顔を撮影した暗画像をさらに取得し、
前記画像生成部は、前記複数の原画像のうち、前記第2の数の原画像を合成した画像と前記暗画像の差分画像を前記第2の合成画像として生成する、
付記1〜5の何れか一項に記載の視線検出装置。
(付記7)
所定の露出条件で、光源により照明されたユーザの顔を複数回撮影することにより複数の原画像を生成し、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、
前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成し、
前記第1の合成画像からユーザの顔を検出し、
前記第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出し、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する、
ことを含む視線検出方法。
(付記8)
所定の露出条件で、光源により照明されたユーザの顔を複数回撮影することにより生成された複数の原画像を取得し、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、
前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成し、
前記第1の合成画像からユーザの顔を検出し、
前記第2の合成画像からユーザの瞳孔及び前記光源のプルキンエ像を検出し、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する、
ことをコンピュータに実行させる視線検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A light source that illuminates the user's face;
An imaging unit that generates a plurality of original images by photographing a user's face a plurality of times under a predetermined exposure condition;
A first synthesized image is generated by synthesizing a first number of original images among the plurality of original images, and a second number greater than the first number among the plurality of original images. An image generation unit that generates a second combined image by combining a number of original images;
A face detection unit for detecting a user's face from the first composite image;
A Purkinje image detector for detecting a user's pupil and Purkinje image of the light source from the second composite image;
A line-of-sight detection unit that detects a user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A line-of-sight detection apparatus comprising:
(Appendix 2)
The predetermined exposure condition is a condition in which a luminance value of a pixel corresponding to the user's face is not saturated on the original image when an average illuminance within a photographing target range of the imaging unit is a maximum value assumed. The line-of-sight detection device according to attachment 1.
(Appendix 3)
When the face detection unit fails to detect the user's face, the image generation unit corrects the first number to be increased by a predetermined number, and the corrected first of the plurality of original images is corrected. A first composite image modified by synthesizing a number of original images is generated, and the face detection unit detects a user's face from the modified first composite image. The line-of-sight detection device described.
(Appendix 4)
When the Purkinje image detection unit fails to detect the user's pupil or Purkinje image of the light source, the image generation unit corrects the second number to be increased by a predetermined number, and out of the plurality of original images Generating a modified second composite image by compositing the modified second number of original images, and the Purkinje image detection unit generates the user's pupil and the second image from the modified second composite image. The line-of-sight detection device according to any one of appendices 1 to 3, which detects a Purkinje image of the light source.
(Appendix 5)
The Purkinje image detection unit detects the user's pupil and the Purkinje image of the light source within a region on the second composite image corresponding to the user's face detected by the face detection unit. The visual line detection device according to any one of the above.
(Appendix 6)
The imaging unit further obtains a dark image obtained by photographing the user's face with the light source turned off,
The image generation unit generates, as the second combined image, a difference image between an image obtained by combining the second number of original images and the dark image among the plurality of original images.
The line-of-sight detection device according to any one of appendices 1 to 5.
(Appendix 7)
A plurality of original images are generated by photographing a user's face illuminated by a light source a plurality of times under a predetermined exposure condition,
Generating a first synthesized image by synthesizing a first number of original images among the plurality of original images;
Generating a second synthesized image by synthesizing a second number of original images larger than the first number among the plurality of original images;
Detecting a user's face from the first composite image;
Detecting the pupil of the user and the Purkinje image of the light source from the second composite image;
Detecting the user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A gaze detection method including the above.
(Appendix 8)
Obtaining a plurality of original images generated by photographing a user's face illuminated by a light source a plurality of times under a predetermined exposure condition;
Generating a first synthesized image by synthesizing a first number of original images among the plurality of original images;
Generating a second synthesized image by synthesizing a second number of original images larger than the first number among the plurality of original images;
Detecting a user's face from the first composite image;
Detecting the pupil of the user and the Purkinje image of the light source from the second composite image;
Detecting the user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A computer program for eye-gaze detection that causes a computer to execute the above.
1 視線検出装置
2 光源
3 カメラ
4 インターフェース部
5 メモリ
6 制御部
11 光源制御部
12 カメラ制御部
13 画像生成部
14 顔検出部
15 プルキンエ像検出部
16 視線検出部
17 キャリブレーション部
DESCRIPTION OF SYMBOLS 1 Line-of-sight detection apparatus 2 Light source 3 Camera 4 Interface part 5
Claims (5)
所定の露出条件でユーザの顔を複数回撮影することにより複数の原画像を生成する撮像部と、
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、かつ、前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成する画像生成部と、
前記第1の合成画像からユーザの顔を検出する顔検出部と、
前記顔検出部で検出されたユーザの顔に対応する前記第2の合成画像上の領域内でユーザの瞳孔及び前記光源のプルキンエ像を検出するプルキンエ像検出部と、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する視線検出部と、
を有する視線検出装置。 A light source that illuminates the user's face;
An imaging unit that generates a plurality of original images by photographing a user's face a plurality of times under a predetermined exposure condition;
A first synthesized image is generated by synthesizing a first number of original images among the plurality of original images, and a second number greater than the first number among the plurality of original images. An image generation unit that generates a second combined image by combining a number of original images;
A face detection unit for detecting a user's face from the first composite image;
A Purkinje image detection unit for detecting the user's pupil and the Purkinje image of the light source in an area on the second composite image corresponding to the user's face detected by the face detection unit;
A line-of-sight detection unit that detects a user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A line-of-sight detection apparatus comprising:
前記画像生成部は、前記複数の原画像のうち、前記第2の数の原画像を合成した画像と前記暗画像の差分画像を前記第2の合成画像として生成する、
請求項1〜3の何れか一項に記載の視線検出装置。 The imaging unit further obtains a dark image obtained by photographing the user's face with the light source turned off,
The image generation unit generates, as the second combined image, a difference image between an image obtained by combining the second number of original images and the dark image among the plurality of original images.
The gaze detection device according to any one of claims 1 to 3 .
前記複数の原画像のうち、第1の数の原画像を合成することにより第1の合成画像を生成し、
前記複数の原画像のうち、前記第1の数よりも多い第2の数の原画像を合成することにより第2の合成画像を生成し、
前記第1の合成画像からユーザの顔を検出し、
検出されたユーザの顔に対応する前記第2の合成画像上の領域内でユーザの瞳孔及び前記光源のプルキンエ像を検出し、
前記ユーザの瞳孔と前記光源のプルキンエ像の位置関係に基づいてユーザの視線方向を検出する、
ことを含む視線検出方法。 A plurality of original images are generated by photographing a user's face illuminated by a light source a plurality of times under a predetermined exposure condition,
Generating a first synthesized image by synthesizing a first number of original images among the plurality of original images;
Generating a second synthesized image by synthesizing a second number of original images larger than the first number among the plurality of original images;
Detecting a user's face from the first composite image;
Detecting the user's pupil and Purkinje image of the light source in an area on the second composite image corresponding to the detected user's face ;
Detecting the user's line-of-sight direction based on the positional relationship between the user's pupil and the Purkinje image of the light source;
A gaze detection method including the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010268282A JP5601179B2 (en) | 2010-12-01 | 2010-12-01 | Gaze detection apparatus and gaze detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010268282A JP5601179B2 (en) | 2010-12-01 | 2010-12-01 | Gaze detection apparatus and gaze detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012115505A JP2012115505A (en) | 2012-06-21 |
JP5601179B2 true JP5601179B2 (en) | 2014-10-08 |
Family
ID=46499101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010268282A Expired - Fee Related JP5601179B2 (en) | 2010-12-01 | 2010-12-01 | Gaze detection apparatus and gaze detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5601179B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6056323B2 (en) | 2012-09-24 | 2017-01-11 | 富士通株式会社 | Gaze detection device, computer program for gaze detection |
KR101867915B1 (en) | 2015-01-16 | 2018-07-19 | 현대자동차주식회사 | Method for executing vehicle function using wearable device and vehicle for carrying out the same |
WO2017134918A1 (en) * | 2016-02-01 | 2017-08-10 | アルプス電気株式会社 | Line-of-sight detection device |
JP6897291B2 (en) * | 2017-05-02 | 2021-06-30 | 株式会社リコー | Image evaluation device and image evaluation method |
JP2019046438A (en) * | 2017-09-05 | 2019-03-22 | 株式会社Jvcケンウッド | Evaluation apparatus and evaluation method |
JP6717330B2 (en) | 2018-03-15 | 2020-07-01 | オムロン株式会社 | Eye-gaze detecting device, control method of the eye-gaze detecting device, method of detecting corneal reflection image position, and computer program |
CN108811249B (en) * | 2018-06-29 | 2024-04-23 | 深圳微步信息股份有限公司 | Iris illumination control circuit and mobile terminal |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003000544A (en) * | 2001-06-20 | 2003-01-07 | Canon Inc | Line-of-vision detector |
JP4451195B2 (en) * | 2004-04-13 | 2010-04-14 | 本田技研工業株式会社 | Gaze detection device |
JP5145555B2 (en) * | 2007-03-30 | 2013-02-20 | 国立大学法人静岡大学 | Pupil detection method |
JP4888838B2 (en) * | 2008-05-12 | 2012-02-29 | トヨタ自動車株式会社 | Driver imaging device and driver imaging method |
JP4623172B2 (en) * | 2008-09-03 | 2011-02-02 | 株式会社デンソー | Pupil detection device, program for pupil detection device, and pupil detection method |
JP4818393B2 (en) * | 2009-05-07 | 2011-11-16 | キヤノン株式会社 | Image processing method and image processing apparatus |
JP4995935B2 (en) * | 2010-03-26 | 2012-08-08 | 株式会社コナミデジタルエンタテインメント | Image generating apparatus, image processing method, and program |
-
2010
- 2010-12-01 JP JP2010268282A patent/JP5601179B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012115505A (en) | 2012-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5601179B2 (en) | Gaze detection apparatus and gaze detection method | |
CN113729611B (en) | Eye tracking using center position of eyeball | |
JP5626039B2 (en) | Gaze detection apparatus and gaze detection method | |
JP6036065B2 (en) | Gaze position detection device and gaze position detection method | |
US9473696B2 (en) | Gaze detection apparatus, gaze detection computer program, and display apparatus | |
JP5949319B2 (en) | Gaze detection apparatus and gaze detection method | |
JP5467303B1 (en) | Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium | |
EP3076892B1 (en) | A medical optical tracking system | |
JP5621456B2 (en) | Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal | |
JP6346525B2 (en) | Gaze detection device | |
JP5655644B2 (en) | Gaze detection apparatus and gaze detection method | |
EP3011894B1 (en) | Eye gaze detection apparatus and eye gaze detection method | |
US11023039B2 (en) | Visual line detection apparatus and visual line detection method | |
TW201416908A (en) | Pupil tracking device | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
JP6957048B2 (en) | Eye image processing device | |
US20200150758A1 (en) | Display device, learning device, and control method of display device | |
JP6904624B1 (en) | Club head measurement mark and image processing device | |
JP6856017B2 (en) | Corneal reflex position detection device, line-of-sight detection device and corneal reflex position detection method | |
JP2016028669A (en) | Pupil detection device and pupil detection method | |
JP6555707B2 (en) | Pupil detection device, pupil detection method, and pupil detection program | |
JP2016051317A (en) | Visual line detection device | |
JP2005266868A (en) | Method for detecting direction of head part using pupil and nostril | |
JP2024030668A (en) | Lighting system and photography system | |
JP2005296383A (en) | Visual line detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140422 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140722 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5601179 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |