JP2012187178A - Visual line detection device and visual line detection method - Google Patents

Visual line detection device and visual line detection method Download PDF

Info

Publication number
JP2012187178A
JP2012187178A JP2011051351A JP2011051351A JP2012187178A JP 2012187178 A JP2012187178 A JP 2012187178A JP 2011051351 A JP2011051351 A JP 2011051351A JP 2011051351 A JP2011051351 A JP 2011051351A JP 2012187178 A JP2012187178 A JP 2012187178A
Authority
JP
Japan
Prior art keywords
distance
image
user
face
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011051351A
Other languages
Japanese (ja)
Other versions
JP5655644B2 (en
Inventor
Takuya Kamimura
拓也 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011051351A priority Critical patent/JP5655644B2/en
Publication of JP2012187178A publication Critical patent/JP2012187178A/en
Application granted granted Critical
Publication of JP5655644B2 publication Critical patent/JP5655644B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a visual line detection device that correctly detects a position on which a user fixes his/her eyes even when a distance between the user and the device varies during calibration and during practice of visual line detection processing.SOLUTION: The visual line detection device 1 includes: an imaging part 12 that generates an image obtained by photographing at least a partial area of the user's face, which is the area including the eyes, during lighting of a light source 11; a distance characteristic quantity extraction part 26 that obtains distance characteristic quantities to be changed according to a distance from a display part 2 to the user's face from the image; a distance estimation part 27 that estimates the distance from the display part 2 to the user's face, on the basis of the distance characteristic quantities; a Purukinje image detection part 24 that detects the cornea reflection image of the light source and the pupil gravity of the user from the area of the eye included in the image; a visual line detection part 25 that detects the user's visual direction on the basis of a positional relationship between the pupil gravity and the cornea reflection image; and an eye-fixing position detection part 28 that obtains the eye-fixing position of the user on the display part 2, on the basis of the direction of the visual line and the distance from the display part to the user's face.

Description

本発明は、例えば、角膜反射像を検出することにより視線方向を検出する視線検出装置及び視線検出方法に関する。   The present invention relates to a gaze detection apparatus and a gaze detection method that detect a gaze direction by detecting, for example, a cornea reflection image.

従来より、ユーザの眼を撮影した画像を解析することにより光源の角膜反射像(プルキンエ像)を検出することで、ユーザの視線方向を検出する視線検出装置が開発されている。
このような視線検出装置では、ユーザが注視する位置を正確に検出するために、ユーザが視線検出装置が搭載された装置を利用する前に、いわゆるキャリブレーション処理が行われる。キャリブレーション処理では、例えば、視線検出装置は、予め指定された複数の方向をユーザが注視した時の画像上のプルキンエ像の位置と瞳孔の位置の差を測定し、参照テーブルにその差と注視位置とを対応付けて格納する。そして視線検出装置は、視線検出処理を実行する際には、測定されたプルキンエ像の位置と瞳孔の位置の差に対応する注視位置を、参照テーブルを参照することで決定する。そして視線検出装置が求めた注視位置に応じて、視線検出装置が搭載された装置が画面スクロール等の制御動作を実行することで、ユーザの操作の手間を軽減できる。
2. Description of the Related Art Conventionally, a line-of-sight detection device that detects a user's line-of-sight direction by detecting a cornea reflection image (Purkinje image) of a light source by analyzing an image obtained by photographing a user's eyes has been developed.
In such a line-of-sight detection device, a so-called calibration process is performed before the user uses a device on which the line-of-sight detection device is mounted in order to accurately detect the position at which the user gazes. In the calibration process, for example, the line-of-sight detection device measures the difference between the position of the Purkinje image on the image and the position of the pupil when the user gazes in a plurality of directions specified in advance, and the difference and gaze are measured in the reference table. Store the location in association with each other. When the line-of-sight detection process is performed, the line-of-sight detection apparatus determines a gaze position corresponding to the difference between the measured Purkinje image position and the pupil position by referring to the reference table. Then, according to the gaze position obtained by the line-of-sight detection device, the device on which the line-of-sight detection device is mounted executes a control operation such as screen scrolling, thereby reducing the user's operation.

しかし、視線検出処理の実行時における、視線検出装置が搭載された装置とユーザとの位置関係が、キャリブレーション処理の実行時における、視線検出装置が搭載された装置とユーザとの位置関係と異なることがある。特に、視線検出装置が、携帯電話または携帯情報端末といった、ユーザが自らの手で保持する装置に搭載される場合、視線検出処理の実行時におけるその装置とユーザ間の距離を常に一定に保つことは困難である。そしてユーザと装置との間の距離が変われば、視線方向が同一であってもユーザが注視する位置は変化する。そのため、視線検出装置は、キャリブレーション時に作成した参照テーブルを用いても、ユーザが注視する位置を正確に検出できないおそれがあった。そこで、視線検出装置からユーザまでの距離を測定し、その距離及び視線方向に基づいてユーザが注視する位置を検出する技術が提案されている(例えば、特許文献1及び2を参照)。   However, the positional relationship between the device on which the visual line detection device is mounted and the user when executing the visual line detection processing is different from the positional relationship between the device on which the visual line detection device is mounted and the user when executing the calibration processing. Sometimes. In particular, when the gaze detection device is mounted on a device that the user holds with his / her hand, such as a mobile phone or a portable information terminal, the distance between the device and the user at the time of execution of the gaze detection process is always kept constant. It is difficult. And if the distance between a user and an apparatus changes, even if a gaze direction is the same, the position where a user gazes will change. For this reason, there is a possibility that the line-of-sight detection device cannot accurately detect the position at which the user gazes even if the reference table created at the time of calibration is used. Therefore, a technique has been proposed in which the distance from the line-of-sight detection device to the user is measured and the position at which the user gazes is detected based on the distance and the line-of-sight direction (see, for example, Patent Documents 1 and 2).

例えば、このような公知技術の一例による装置は、その装置からオペレータまでの距離を、オペレータを撮影した画像から自動焦点機能により測定する。そしてその装置は、その距離及び虹彩とプルキンエ像間の画像上での位置の差に基づいて、表示部の画面上でオペレータが注視する位置を求める。
また他の公知技術の一例による装置は、ユーザの顔を撮影した画像から顔の複数の特徴点及び輪郭を抽出し、複数の特徴点間の位置関係に基づいて顔の向きを求めるとともに、輪郭の大きさに基づいて装置からユーザの顔までの距離を求める。そしてこの装置は、顔の向きまたは装置からユーザの顔までの距離に応じて、表示部の表示画面のスクロール、拡大、縮小などの制御を実行する。
For example, the apparatus according to an example of such a known technique measures the distance from the apparatus to the operator from an image obtained by photographing the operator using an autofocus function. And the apparatus calculates | requires the position which an operator gazes on the screen of a display part based on the difference of the position on the image between the distance and an iris and a Purkinje image.
An apparatus according to an example of another known technique extracts a plurality of feature points and contours of a face from an image obtained by photographing a user's face, obtains a face orientation based on a positional relationship between the plurality of feature points, The distance from the device to the user's face is obtained based on the size of the device. The apparatus executes control such as scrolling, enlarging, and reducing the display screen of the display unit according to the orientation of the face or the distance from the apparatus to the user's face.

特開平6−187091号公報Japanese Patent Laid-Open No. 6-187091 特開2009−31368号公報JP 2009-31368 A

しかしながら、自動焦点機能により画像から装置からオペレータまでの距離を測定するためには、装置は、被写界深度が浅い光学系と、イメージセンサ上に焦点を結ぶ物点までの被写体距離を変えるためにその光学系を移動させる機構を備えることになる。そのため、装置全体の構造が複雑化してしまう。
また、画像から抽出された顔の特徴点または輪郭に基づいて画面表示を制御する装置は、ユーザが顔を動かさず、視線のみを動かすと、ユーザが注視している位置が移動したことを検知できないので、画面表示を適切に制御できないおそれがあった。
However, in order to measure the distance from the device to the operator using the autofocus function, the device changes the subject distance from the optical system having a shallow depth of field to the object point focused on the image sensor. Is provided with a mechanism for moving the optical system. This complicates the structure of the entire device.
In addition, the device that controls the screen display based on the facial feature points or contours extracted from the image detects that the position where the user is gazing has moved when the user moves only the line of sight without moving the face. Because it was not possible, there was a risk that the screen display could not be properly controlled.

そこで本明細書は、キャリブレーション時と視線検出処理の実行時とで、ユーザと装置間の距離が異なる場合でも、ユーザが注視している位置を正確に検出できる視線検出装置を提供することを目的とする。   Therefore, the present specification provides a line-of-sight detection device that can accurately detect the position where the user is gazing even when the distance between the user and the device is different between calibration and execution of the line-of-sight detection process. Objective.

一つの実施形態によれば、視線検出装置が提供される。この視線検出装置は、ユーザの眼を照射する光源と、光源が点灯している間に眼を含む領域であって、ユーザの顔の少なくとも一部の領域を撮影した画像を生成する撮像部と、表示部からユーザの顔までの距離とその距離に応じて変化する画像上での距離特徴量との関係を表す距離情報を記憶する記憶部と、画像から距離特徴量を求める距離特徴量抽出部と、距離情報を参照することにより距離特徴量に対応する表示部からユーザの顔までの距離を推定する距離推定部と、画像に含まれる眼の領域から、光源の角膜反射像とユーザの瞳孔重心とを検出するプルキンエ像検出部と、瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向を検出する視線検出部と、視線方向と表示部からユーザの顔までの距離に基づいて、表示部上のユーザの注視位置を求める注視位置検出部とを有する。   According to one embodiment, a line-of-sight detection device is provided. The line-of-sight detection device includes: a light source that irradiates a user's eyes; and an imaging unit that generates an image obtained by capturing at least a part of the user's face, which is an area including the eyes while the light source is on. A storage unit for storing distance information representing a relationship between a distance from the display unit to the user's face and a distance feature amount on the image that changes according to the distance; and a distance feature amount extraction for obtaining a distance feature amount from the image A distance estimation unit that estimates the distance from the display unit corresponding to the distance feature amount to the user's face by referring to the distance information, and the cornea reflection image of the light source and the user's Purkinje image detection unit that detects the center of gravity of the pupil, gaze detection unit that detects the user's gaze direction according to the positional relationship between the center of gravity of the pupil and the cornea reflection image, and the gaze direction and the distance from the display unit to the user's face Based on the user on the display And a gaze position detector for determining the gaze position.

本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示された視線検出装置は、キャリブレーション時と視線検出処理の実行時とで、ユーザと装置間の距離が異なる場合でも、ユーザが注視している位置を正確に検出できる。   The line-of-sight detection device disclosed in this specification can accurately detect the position where the user is gazing even when the distance between the user and the device is different between calibration and execution of the line-of-sight detection process.

第1の実施形態による視線検出装置を搭載した携帯端末のハードウェア構成図である。It is a hardware block diagram of the portable terminal carrying the gaze detection apparatus by 1st Embodiment. 第1の実施形態による視線検出装置を搭載した携帯端末の概略正面図である。It is a schematic front view of the portable terminal carrying the gaze detection apparatus by 1st Embodiment. 第1の実施形態による視線検出装置の制御部の機能ブロック図である。It is a functional block diagram of the control part of the gaze detection apparatus by a 1st embodiment. 参照テーブルの一例を示す図である。It is a figure which shows an example of a reference table. (a)は、被写体距離が比較的近い第1の距離である場合の画像上のユーザの顔を表す模式図である。(b)は、被写体距離が第1の距離よりも遠い第2の距離である場合の画像上のユーザの顔を表す模式図である。(A) is a mimetic diagram showing a user's face on an image in case a subject distance is the 1st distance comparatively near. (B) is a schematic diagram showing the face of the user on the image when the subject distance is a second distance that is farther than the first distance. 画像上での左右の鼻孔の重心間の間隔と被写体距離との関係の実験結果を表すグラフである。It is a graph showing the experimental result of the relationship between the space | interval between the gravity centers of the right and left nostrils on an image, and object distance. 注視位置テーブルの一例を示す図である。It is a figure which shows an example of a gaze position table. キャリブレーション処理の動作フローチャートである。It is an operation | movement flowchart of a calibration process. 視線検出処理の動作フローチャートである。It is an operation | movement flowchart of a gaze detection process. (a)は、プルキンエ像が写った画像の一例を表し、(b)は、(a)の水平方向の線に沿った画素のうち、輝度値が飽和した画素の数と被写体距離との関係の実験結果を表すグラフである。(A) represents an example of an image showing a Purkinje image, and (b) represents the relationship between the number of pixels with saturated luminance values and the subject distance among the pixels along the horizontal line of (a). It is a graph showing the experimental result of. 第3の実施形態による視線検出装置を搭載した携帯端末の概略正面図である。It is a schematic front view of the portable terminal carrying the gaze detection apparatus by 3rd Embodiment. 二つの光源のプルキンエ像間の間隔と被写体距離との関係の実験結果を表すグラフである。It is a graph showing the experimental result of the relationship between the space | interval between Purkinje images of two light sources, and object distance. 第4の実施形態による視線検出装置の制御部の機能ブロック図である。It is a functional block diagram of the control part of the gaze detection apparatus by a 4th embodiment. 傾き検出処理の動作フローチャートである。It is an operation | movement flowchart of an inclination detection process.

以下、図を参照しつつ、第1の実施形態による視線検出装置について説明する。
この視線検出装置は、光源のプルキンエ像を撮影した画像を解析し、プルキンエ像と瞳孔の重心間の距離に基づいてユーザの視線方向を検出する。さらにこの視線検出装置は、その画像上で、視線検出装置が搭載された装置の表示部からユーザの顔までの距離に応じて変化する距離特徴量として、顔の複数の特徴的な部位間の間隔を求め、その間隔に応じて表示部からユーザの顔までの距離を求める。そしてこの視線検出装置は、視線検出装置が搭載された装置の表示部からユーザの顔までの距離とユーザの視線方向とに基づいて、表示部の画面上のユーザの注視位置を特定する。なお、この実施形態では、視線検出装置が搭載された装置が有するカメラの光学系の前側主点とその装置の表示部の位置の差は、ユーザの顔から表示部までの距離に対して無視できる程度に小さい。そこで以下では、便宜上、視線検出装置が搭載された装置の表示部からユーザの顔までの距離を被写体距離と呼ぶ。
Hereinafter, the gaze detection apparatus according to the first embodiment will be described with reference to the drawings.
This line-of-sight detection device analyzes an image obtained by capturing the Purkinje image of the light source, and detects the user's line-of-sight direction based on the distance between the Purkinje image and the center of gravity of the pupil. Furthermore, the line-of-sight detection device is a distance feature quantity that changes according to the distance from the display unit of the device on which the line-of-sight detection device is mounted to the user's face on the image. An interval is obtained, and a distance from the display unit to the user's face is obtained according to the interval. And this gaze detection apparatus pinpoints the user's gaze position on the screen of a display part based on the distance from the display part of the apparatus by which a gaze detection apparatus is mounted to a user's face, and a user's gaze direction. In this embodiment, the difference between the position of the front principal point of the optical system of the camera of the device equipped with the line-of-sight detection device and the display unit of the device is ignored with respect to the distance from the user's face to the display unit. As small as possible. Therefore, hereinafter, for the sake of convenience, the distance from the display unit of the device equipped with the line-of-sight detection device to the user's face is referred to as a subject distance.

図1は、第1の実施形態による視線検出装置を搭載した携帯端末のハードウェア構成図である。携帯端末1は、ユーザインターフェース2と、メモリ3と、制御部4と、筺体5と、視線検出装置10とを有する。なお、携帯端末1は、例えば、携帯電話機または携帯情報端末である。さらに携帯端末1は、携帯端末1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。なお、図1は、携帯端末1が有する構成要素を説明するための図であり、携帯端末1の各構成要素の実際の配置を表した図ではないことに留意されたい。   FIG. 1 is a hardware configuration diagram of a portable terminal equipped with the visual line detection device according to the first embodiment. The mobile terminal 1 includes a user interface 2, a memory 3, a control unit 4, a housing 5, and a line-of-sight detection device 10. The mobile terminal 1 is, for example, a mobile phone or a mobile information terminal. Furthermore, the mobile terminal 1 may have a communication interface circuit (not shown) for connecting the mobile terminal 1 to another device. Note that FIG. 1 is a diagram for explaining the constituent elements of the mobile terminal 1 and is not a diagram showing the actual arrangement of the constituent elements of the mobile terminal 1.

ユーザインターフェース2は、表示部の一例であり、例えば、タッチパネルディスプレイを有する。そしてユーザインターフェース2は、筺体5の正面において、ユーザインターフェース2の表示画面が、筺体5の正面に対向するユーザを向くように配置される。そしてユーザインターフェース2は、例えば、様々なアイコンまたは操作ボタンを制御部4からの制御信号に応じて表示する。またユーザインターフェース2は、表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号を制御部4へ出力する。
なお、ユーザインターフェース2は、液晶ディスプレイといった表示装置と、キーパッドなどの複数の操作スイッチを有していてもよい。
The user interface 2 is an example of a display unit and includes, for example, a touch panel display. The user interface 2 is arranged on the front surface of the housing 5 such that the display screen of the user interface 2 faces the user facing the front surface of the housing 5. The user interface 2 displays various icons or operation buttons, for example, in response to a control signal from the control unit 4. In addition, when the user touches the position of the displayed icon, the user interface 2 generates an operation signal corresponding to the position and outputs the operation signal to the control unit 4.
The user interface 2 may have a display device such as a liquid crystal display and a plurality of operation switches such as a keypad.

メモリ3は、例えば、読み書き可能な不揮発性の半導体メモリを有する。そしてメモリ3は、制御部4上で実行される各種のアプリケーションプログラム及び各種のデータを記憶する。またメモリ3は、ユーザインターフェース2の表示画面に表示中のアイコンまたは操作ボタンの領域を表す情報を記憶する。   The memory 3 includes, for example, a readable / writable nonvolatile semiconductor memory. The memory 3 stores various application programs executed on the control unit 4 and various data. Further, the memory 3 stores information representing an icon or an operation button area being displayed on the display screen of the user interface 2.

さらに、メモリ3は、視線検出装置10の記憶部としても機能する。そしてメモリ3は、ユーザが注視する位置を検出するために利用される各種のデータを記憶する。例えば、メモリ3は、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを記憶する。またメモリ3は、画像から抽出された距離特徴量と被写体距離との関係を表す距離参照テーブルを記憶する。さらにメモリ3は、被写体距離及び視線方向とユーザが注視する位置との関係を表す注視位置テーブルを記憶する。さらに、メモリ3は、視線検出処理を実行するプログラムを記憶する。
なお、視線検出装置10の記憶部として機能するメモリ回路は、メモリ3とは別個に携帯端末1に実装されてもよい。
Furthermore, the memory 3 also functions as a storage unit of the line-of-sight detection device 10. And the memory 3 memorize | stores the various data utilized in order to detect the position where a user gazes. For example, the memory 3 stores a reference table representing the relationship between the relative position of the pupil center of gravity with respect to the center of gravity of the Purkinje image and the user's line-of-sight direction. Further, the memory 3 stores a distance reference table that represents the relationship between the distance feature amount extracted from the image and the subject distance. Further, the memory 3 stores a gaze position table that represents the relationship between the subject distance and the line-of-sight direction and the position where the user gazes. Furthermore, the memory 3 stores a program for executing the line-of-sight detection process.
The memory circuit that functions as the storage unit of the line-of-sight detection device 10 may be mounted on the mobile terminal 1 separately from the memory 3.

視線検出装置10は、ユーザインターフェース2の表示画面上でユーザが注視している位置を求める。そして視線検出装置10は、ユーザが注視している位置を表す情報を制御部4が実行中のアプリケーションプログラムに渡す。なお、視線検出装置10の詳細については後述する。   The line-of-sight detection device 10 obtains the position where the user is gazing on the display screen of the user interface 2. Then, the line-of-sight detection device 10 passes information indicating the position where the user is gazing to the application program being executed by the control unit 4. Details of the line-of-sight detection device 10 will be described later.

制御部4は、一つまたは複数のプロセッサ及びその周辺回路を有する。そして制御部4は、携帯端末1の各部と信号線を介して接続されており、携帯端末1全体を制御する。例えば、制御部4は、ユーザインターフェース2から受け取った操作信号と実行中のアプリケーションプログラムに応じた処理を実行する。
また制御部4は、視線検出装置10の制御部としても機能する。なお、視線検出装置10の制御部としての機能及び動作に関しては後述する。
さらに、制御部4は、アプリケーション実行部の一例であり、例えば、視線検出装置10により求められた、ユーザが注視している位置とメモリ3に記憶されているユーザインターフェース2の表示画面上の各アイコンの表示領域とを比較する。そして制御部4は、ユーザが注視している位置と何れかのアイコンまたは操作ボタンの表示領域とが重なっている場合、そのアイコンまたは操作ボタンに応じた処理を実行する。
The control unit 4 includes one or a plurality of processors and their peripheral circuits. And the control part 4 is connected with each part of the portable terminal 1 via a signal line, and controls the portable terminal 1 whole. For example, the control unit 4 executes processing according to the operation signal received from the user interface 2 and the application program being executed.
The control unit 4 also functions as a control unit of the line-of-sight detection device 10. The function and operation as the control unit of the line-of-sight detection device 10 will be described later.
Further, the control unit 4 is an example of an application execution unit. For example, each position on the display screen of the user interface 2 stored in the memory 3 and the position at which the user is gazing, which is obtained by the line-of-sight detection device 10. Compare the icon display area. When the position where the user is gazing and the display area of any icon or operation button overlap, the control unit 4 executes processing corresponding to the icon or operation button.

図2は、携帯端末1の概略正面図である。携帯端末1の略中央に設けられたユーザインターフェース2の表示画面2aには、地図201とその周囲に画面をスクロールさせるためのスクロールボタン202〜205が表示されている。
この場合、ユーザが注視する位置がスクロールボタン202〜205の何れかの表示領域と重なっていれば、制御部4は、そのスクロールボタンに関して予め設定された方向に画面をスクロールさせる。また、ユーザの注視位置が地図201が表示された領域内であり、かつ、ユーザが表示画面2aに顔を近づけると、制御部4はユーザインターフェース2に地図を拡大表示させてもよい。
FIG. 2 is a schematic front view of the mobile terminal 1. On the display screen 2a of the user interface 2 provided in the approximate center of the portable terminal 1, a map 201 and scroll buttons 202 to 205 for scrolling the screen around the map 201 are displayed.
In this case, if the position at which the user gazes overlaps the display area of any of the scroll buttons 202 to 205, the control unit 4 scrolls the screen in a preset direction with respect to the scroll button. Further, when the user's gaze position is within the area where the map 201 is displayed and the user brings his / her face close to the display screen 2a, the control unit 4 may enlarge the map on the user interface 2.

視線検出装置10は、ユーザの視線方向及び表示画面2a上の注視位置を検出するために、光源11と、カメラ12と、メモリ3と、制御部4とを有する。
光源11は、携帯端末1を操作するユーザの顔、特に眼及びその周囲を照明する。そのため、光源11は、例えば、少なくとも一つの赤外発光ダイオードと、制御部4からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。そして光源11は、制御部4から光源を点灯させる制御信号を受信している間、照明光を発する。
なお、視線検出装置10が有する光源11の数は、1個に限られず、視線検出装置10は、互いに異なる位置に配置される複数個の光源を有してもよい。
The line-of-sight detection device 10 includes a light source 11, a camera 12, a memory 3, and a control unit 4 in order to detect a user's line-of-sight direction and a gaze position on the display screen 2a.
The light source 11 illuminates the face of the user who operates the mobile terminal 1, particularly the eyes and surroundings thereof. Therefore, the light source 11 includes, for example, at least one infrared light emitting diode and a drive circuit that supplies power from a power source (not shown) to the infrared light emitting diode in accordance with a control signal from the control unit 4. The light source 11 emits illumination light while receiving a control signal for turning on the light source from the control unit 4.
Note that the number of the light sources 11 included in the line-of-sight detection device 10 is not limited to one, and the line-of-sight detection device 10 may include a plurality of light sources arranged at different positions.

カメラ12は、撮像部の一例であり、眼を含むユーザの顔の少なくとも一部の領域が写った画像を生成する。そのために、カメラ12は、光源11の光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にユーザの眼の像を結像する撮像光学系を有する。カメラ12は、虹彩による反射像及び光源11以外の光源からの光の角膜反射像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。   The camera 12 is an example of an imaging unit, and generates an image in which at least a part of the user's face including the eyes is captured. For this purpose, the camera 12 includes an image sensor having a solid-state imaging device arranged in a two-dimensional manner having sensitivity to light from the light source 11, and an imaging optical system that forms an image of a user's eye on the image sensor. . The camera 12 further includes a visible light cut filter between the image sensor and the imaging optical system in order to suppress detection of an image reflected by the iris and a corneal reflection image of light from a light source other than the light source 11. May be.

また、画像が光源11のプルキンエ像を識別できる程度の解像度を有するように、カメラ12のイメージセンサの画素数は、例えば、100万、200万、あるいは400万とすることができる。またイメージセンサにより生成される画像はカラー画像であり、画素ごとに赤色(R)、緑色(G)及び青色(B)の3色の成分を持つ。各色成分は、例えば、0〜255の何れかの値をとり、色成分値が大きいほど、その色の輝度が高い。あるいは、イメージセンサにより生成される画像は、光の強度が強いほど各画素の輝度が高くなるモノクロ画像であってもよい。
カメラ12は、視線検出処理が実行されている間、光源11が点灯している間に所定の周期でユーザの顔を撮影することにより、点灯している光源により照明されたユーザの顔が写った画像を生成する。そしてカメラ12は、画像を生成する度に、生成した画像を制御部4へ出力する。
Further, the number of pixels of the image sensor of the camera 12 can be set to, for example, 1 million, 2 million, or 4 million so that the image has a resolution that can identify the Purkinje image of the light source 11. An image generated by the image sensor is a color image, and each pixel has three color components of red (R), green (G), and blue (B). Each color component takes any value from 0 to 255, for example. The larger the color component value, the higher the luminance of the color. Alternatively, the image generated by the image sensor may be a monochrome image in which the luminance of each pixel increases as the light intensity increases.
The camera 12 captures the user's face illuminated by the lit light source by photographing the user's face at a predetermined cycle while the light source 11 is lit while the line-of-sight detection process is being performed. Generated images. The camera 12 outputs the generated image to the control unit 4 every time an image is generated.

再度図2を参照すると、携帯端末1のユーザインターフェース2の表示画面2aの上端に近接してカメラ12が配置される。このカメラ12は、表示画面2aに対向するユーザの顔を撮影できるように向けられる。
光源11は、表示画面2aに対向するユーザの顔を照明できるように、ユーザインターフェース2の外周に配置される。この例では、光源11は、ユーザインターフェース2の上端に近接し、カメラ12と並んで配置される。
Referring again to FIG. 2, the camera 12 is disposed in the vicinity of the upper end of the display screen 2 a of the user interface 2 of the mobile terminal 1. The camera 12 is directed so that the user's face facing the display screen 2a can be photographed.
The light source 11 is arranged on the outer periphery of the user interface 2 so as to illuminate the face of the user facing the display screen 2a. In this example, the light source 11 is disposed close to the upper end of the user interface 2 and aligned with the camera 12.

制御部4は、上述したように、携帯端末1の制御部でもあり、視線検出装置10の各部と信号線を通じて接続されている。そして制御部4は、視線検出装置10の各部へ信号線を通じて制御信号を送信することで視線検出装置10の各部を制御する。
また制御部4は、ユーザが注視している位置の情報を用いるアプリケーションが携帯端末1で実行されている間、ユーザが注視している位置を求める視線方向検出処理を実行する。また、制御部4は、携帯端末1の起動時、あるいは上記のようなアプリケーションの起動時など、特定のタイミングにおいて、光源のプルキンエ像と瞳孔重心との相対的な位置関係とユーザの視線方向との関係を求めるキャリブレーション処理を実行する。
As described above, the control unit 4 is also a control unit of the mobile terminal 1 and is connected to each unit of the visual line detection device 10 through a signal line. And the control part 4 controls each part of the visual line detection apparatus 10 by transmitting a control signal to each part of the visual line detection apparatus 10 through a signal line.
Further, the control unit 4 executes a gaze direction detection process for obtaining a position where the user is gazing while an application using information on the position where the user is gazing is executed on the mobile terminal 1. The control unit 4 also determines the relative positional relationship between the Purkinje image of the light source and the pupil center of gravity, the user's line-of-sight direction, and the like at a specific timing such as when the mobile terminal 1 is started or when the above-described application is started. A calibration process for obtaining the relationship is executed.

図3は、制御部4の視線検出処理に関する機能ブロック図である。制御部4は、光源制御部21と、カメラ制御部22と、顔検出部23と、プルキンエ像検出部24と、視線検出部25と、距離特徴量抽出部26と、距離推定部27と、注視位置検出部28と、キャリブレーション部29とを有する。
制御部4が有するこれらの各部は、制御部4が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部4が有するこれらの各部は、それぞれ、制御部4が有するプロセッサとは別個の回路として形成されてもよい。あるいは制御部4が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部4が有するプロセッサとは別個に携帯端末1に実装されてもよい。この場合、その集積回路は、メモリ3とは別個に、参照テーブルなどを記憶して、視線検出装置10が有する記憶部として機能する記憶回路を含んでいてもよい。
FIG. 3 is a functional block diagram related to the line-of-sight detection process of the control unit 4. The control unit 4 includes a light source control unit 21, a camera control unit 22, a face detection unit 23, a Purkinje image detection unit 24, a line-of-sight detection unit 25, a distance feature quantity extraction unit 26, and a distance estimation unit 27. A gaze position detection unit 28 and a calibration unit 29 are provided.
Each of these units included in the control unit 4 is a functional module realized by a computer program executed on a processor included in the control unit 4. Each of these units included in the control unit 4 may be formed as a separate circuit from the processor included in the control unit 4. Alternatively, these units included in the control unit 4 may be mounted on the mobile terminal 1 as a single integrated circuit in which circuits corresponding to the units are integrated, separately from the processor included in the control unit 4. In this case, the integrated circuit may include a storage circuit that stores a reference table or the like separately from the memory 3 and functions as a storage unit included in the visual line detection device 10.

光源制御部21は、光源11を点灯または消灯させる。光源制御部21は、例えば、視線検出処理の実行中、光源11を点灯させる。また光源制御部21は、光源11が複数含まれる場合、同時に2個以上の光源が点灯するように各光源へ制御信号を送信してもよい。同時に複数の光源が点灯すると、プルキンエ像にも点灯している複数の光源の像が含まれるので、視線検出装置10は、画像上での輝点の配置パターンが、実際に点灯している光源の配置パターンと一致するか否か調べることができる。そのため、視線検出装置10は、室内灯または太陽など、他の光源の像と視線検出装置10が有する光源の像とを識別し易くなる。   The light source control unit 21 turns on or off the light source 11. For example, the light source control unit 21 turns on the light source 11 during the line-of-sight detection process. Further, when a plurality of light sources 11 are included, the light source control unit 21 may transmit a control signal to each light source so that two or more light sources are turned on simultaneously. When a plurality of light sources are turned on at the same time, the Purkinje image also includes a plurality of light source images that are turned on. Therefore, the line-of-sight detection device 10 uses a light source in which the arrangement pattern of bright spots on the image is actually turned on. It can be checked whether or not it matches the arrangement pattern. Therefore, the line-of-sight detection device 10 can easily distinguish between an image of another light source such as an indoor lamp or the sun and an image of the light source included in the line-of-sight detection device 10.

カメラ制御部22は、視線検出処理またはキャリブレーション処理の実行中において、カメラ12が撮影するタイミングを制御する。カメラ制御部22は、光源制御部21から光源11が点灯したことを通知されると、カメラ12に対して所定の周期で撮影を実行させる撮影指示信号を送信する。そしてカメラ制御部22は、カメラ12から画像を受け取る度に、その画像を一旦メモリ3に記憶させる。   The camera control unit 22 controls the timing at which the camera 12 captures an image during the execution of the line-of-sight detection process or the calibration process. When notified from the light source control unit 21 that the light source 11 is turned on, the camera control unit 22 transmits a shooting instruction signal that causes the camera 12 to perform shooting at a predetermined cycle. The camera control unit 22 temporarily stores the image in the memory 3 every time an image is received from the camera 12.

顔検出部23は、視線検出処理またはキャリブレーション処理の実行中において、画像上でユーザの眼が写っている可能性のある領域を特定するために、カメラ12から受け取った画像上で、ユーザの顔が写っている領域を検出する。
本実施形態では、撮影時において、ユーザの顔は光源11からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、画像上で顔の肌の部分が写っている画素の輝度は高い。一方、画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは光源から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで、顔検出部23は、画像の各画素の値がRGB表色系により表されているカラー画像である場合、各画素の値をYUV表色系により表される値に変換する。そして顔検出部23は、各画素の輝度成分(Y成分)の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。なお、画像の各画素の値が輝度を表すモノクロ画像である場合、顔検出部23は、各画素の値を所定の閾値と比較する。所定の閾値は、例えば、画像上の輝度成分の最大値に0.8を乗じた値に設定される。
The face detection unit 23 performs an operation on the image received from the camera 12 on the image received from the camera 12 in order to identify a region where the user's eyes may be captured on the image during the line-of-sight detection process or the calibration process. Detect the area where the face is reflected.
In the present embodiment, at the time of shooting, the user's face is illuminated with infrared light from the light source 11, and skin reflectance with respect to infrared light is relatively high (for example, skin reflectance is near infrared. (Several tens of percent in the wavelength range), the brightness of the pixels in which the skin of the face is reflected on the image is high. On the other hand, since the area of the hair or the user's back area on the image has a low reflectance with respect to infrared light or is far from the light source, the luminance of the pixel in which the hair or the area behind the user is reflected is relatively low.
Therefore, when the value of each pixel of the image is a color image represented by the RGB color system, the face detection unit 23 converts the value of each pixel into a value represented by the YUV color system. Then, the face detection unit 23 extracts pixels whose luminance component (Y component) value of each pixel is equal to or greater than a predetermined threshold as face area candidate pixels that may have a face. When the value of each pixel of the image is a monochrome image representing luminance, the face detection unit 23 compares the value of each pixel with a predetermined threshold value. For example, the predetermined threshold is set to a value obtained by multiplying the maximum value of the luminance component on the image by 0.8.

また、ユーザの視線に応じて携帯端末1の操作が実行される場合、ユーザの顔は、携帯端末1の正面を向いており、かつ、携帯端末1の正面から略数十cm離れた位置にあると想定される。そのため、画像上でユーザの顔が占める領域は比較的大きく、かつ、画像上で顔が占める領域の大きさもある程度推定される。
そこで顔検出部23は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして顔検出部23は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、顔検出部23はその顔候補領域をユーザの顔が写っている顔領域と判定する。
なお、顔候補領域の大きさは、例えば、顔候補領域の水平方向の最大幅の画素数で表される。この場合、基準範囲は、例えば、画像の水平方向画素数の1/4以上〜2/3以下に設定される。あるいは、顔候補領域の大きさは、例えば、顔候補領域に含まれる画素数で表されてもよい。この場合、基準範囲は、例えば、画像全体の画素数の1/16以上〜4/9以下に設定される。
When the operation of the mobile terminal 1 is executed according to the user's line of sight, the user's face is facing the front of the mobile terminal 1 and at a position approximately several tens of centimeters away from the front of the mobile terminal 1. It is assumed that there is. Therefore, the area occupied by the user's face on the image is relatively large, and the size of the area occupied by the face on the image is estimated to some extent.
Therefore, the face detection unit 23 performs a labeling process on the face area candidate pixels, and sets a set of face area candidate pixels adjacent to each other as a face candidate area. Then, the face detection unit 23 determines whether the size of the face candidate area is included in a reference range corresponding to the size of the user's face. If the size of the face candidate area is included in the reference range corresponding to the size of the user's face, the face detection unit 23 determines that the face candidate area is a face area in which the user's face is reflected.
Note that the size of the face candidate area is represented by, for example, the maximum number of pixels in the horizontal direction of the face candidate area. In this case, the reference range is set to, for example, from 1/4 to 2/3 of the number of pixels in the horizontal direction of the image. Alternatively, the size of the face candidate area may be represented by the number of pixels included in the face candidate area, for example. In this case, the reference range is set to, for example, 1/16 or more to 4/9 or less of the number of pixels of the entire image.

顔検出部23は、顔候補領域の大きさだけでなく、顔候補領域の形状も、顔候補領域を顔領域と判定するための判定条件に加えてもよい。人の顔は、一般に略楕円形状を有している。そこで顔検出部23は、例えば、顔候補領域の大きさが上記の基準範囲に含まれ、かつ、顔候補領域の円形度が、一般的な顔の輪郭に相当する所定の閾値以上である場合に顔候補領域を顔領域としてもよい。なお顔検出部23は、顔候補領域の輪郭上に位置する画素の合計を顔候補領域の周囲長として求め、顔候補領域内の総画素数に4πを乗じた値を周囲長の2乗で除することにより円形度を算出できる。   The face detection unit 23 may add not only the size of the face candidate area but also the shape of the face candidate area to the determination condition for determining the face candidate area as the face area. A human face generally has a substantially elliptical shape. Therefore, the face detection unit 23, for example, when the size of the face candidate area is included in the reference range and the circularity of the face candidate area is equal to or greater than a predetermined threshold corresponding to a general face contour. Alternatively, the face candidate area may be a face area. The face detection unit 23 obtains the total number of pixels located on the contour of the face candidate area as the perimeter of the face candidate area, and multiplies the total number of pixels in the face candidate area by 4π as the square of the perimeter. The circularity can be calculated by dividing.

あるいは、顔検出部23は、顔候補領域の輪郭上の各画素の座標を楕円方程式に当てはめて最小二乗法を適用することにより、顔候補領域を楕円近似してもよい。そして顔検出部23は、その楕円の長軸と短軸の比が一般的な顔の長軸と短軸の比の範囲に含まれる場合に、顔候補領域を顔領域としてもよい。なお、顔検出部23は、楕円近似により顔候補領域の形状を評価する場合、画像の各画素の輝度成分に対して近傍画素間演算を行ってエッジに相当するエッジ画素を検出してもよい。この場合、顔検出部23は、エッジ画素を例えばラベリング処理を用いて連結し、一定の長さ以上に連結されたエッジ画素を顔候補領域の輪郭とする。   Alternatively, the face detection unit 23 may approximate the face candidate area to an ellipse by applying the least square method by applying the coordinates of each pixel on the contour of the face candidate area to an elliptic equation. The face detection unit 23 may use the face candidate area as a face area when the ratio of the major axis to the minor axis of the ellipse is included in the range of the ratio of the major axis to the minor axis of the face. Note that, when the shape of the face candidate region is evaluated by ellipse approximation, the face detection unit 23 may detect an edge pixel corresponding to an edge by performing an inter-pixel calculation on the luminance component of each pixel of the image. . In this case, the face detection unit 23 connects the edge pixels using, for example, a labeling process, and uses the edge pixels connected to a certain length or more as the contour of the face candidate region.

なお、顔検出部23は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、顔検出部23は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。   The face detection unit 23 may detect the face area according to any of various other methods for detecting the face area shown on the image. For example, the face detection unit 23 performs template matching between the face candidate area and a template corresponding to a general face shape, calculates the degree of coincidence between the face candidate area and the template, and the degree of coincidence is predetermined. If the value is greater than or equal to the value, the face candidate area may be determined as a face area.

顔検出部23は、顔領域を抽出できると、顔領域を表す情報を生成する。例えば、顔領域を表す情報は、画像と同一のサイズを有し、かつ顔領域内の画素と顔領域外の画素とが異なる画素値を持つ2値画像とすることができる。
そして顔検出部23は、顔領域を表す情報をプルキンエ像検出部24へ渡す。
When the face area can be extracted, the face detection unit 23 generates information representing the face area. For example, the information representing the face area may be a binary image having the same size as the image and having different pixel values for the pixels in the face area and the pixels outside the face area.
The face detection unit 23 passes information representing the face area to the Purkinje image detection unit 24.

プルキンエ像検出部24は、視線検出処理またはキャリブレーション処理の実行中において、顔領域内でユーザの眼が写っている領域を検出し、眼が写っている領域内でプルキンエ像を検出する。
眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこでプルキンエ像検出部24は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そしてプルキンエ像検出部24は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。
あるいは、プルキンエ像検出部24は、画像上の眼の像を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
The Purkinje image detection unit 24 detects a region in which the user's eyes are reflected in the face region during execution of the line-of-sight detection processing or calibration processing, and detects a Purkinje image in the region in which the eyes are reflected.
The luminance of the pixel corresponding to the eye is significantly different from the luminance of the pixel corresponding to the periphery of the eye. Therefore, the Purkinje image detection unit 24 detects, for each pixel in the face region, an edge pixel whose luminance changes in the vertical direction by performing a difference calculation between adjacent pixels in the vertical direction using, for example, a Sobel filter. The Purkinje image detection unit 24 sets, for example, a region surrounded by two edge lines in which a predetermined number or more of edge pixels are connected in a substantially horizontal direction corresponding to the size of the eye.
Alternatively, the Purkinje image detection unit 24 detects a region that most closely matches the template in the face region by template matching between the template representing the image of the eye on the image and the face region, and uses the detected region as the eye region. It is good.

さらに、プルキンエ像検出部24は、眼の領域内で瞳孔が写っている領域を検出する。本実施形態では、プルキンエ像検出部24は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そしてプルキンエ像検出部24は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、プルキンエ像検出部24は、各テンプレートと眼の領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、プルキンエ像検出部24は、一致度の最高値に対応するテンプレートと重なった領域に瞳孔が写っていると判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。   Further, the Purkinje image detection unit 24 detects an area where the pupil is reflected in the eye area. In the present embodiment, the Purkinje image detection unit 24 performs template matching between a template corresponding to the pupil and the eye region, and detects a region having the highest degree of matching with the template in the eye region. Then, the Purkinje image detection unit 24 determines that the pupil is reflected in the detected area when the maximum value of the coincidence is higher than a predetermined coincidence threshold. A plurality of templates may be prepared according to the size of the pupil. In this case, the Purkinje image detection unit 24 executes template matching between each template and the eye region, and obtains the highest value of the matching degree. If the highest coincidence value is higher than the coincidence degree threshold, the Purkinje image detection unit 24 determines that the pupil appears in an area overlapping the template corresponding to the highest coincidence value. Note that the degree of coincidence is calculated as, for example, a normalized cross-correlation value between a template and a region overlapping the template. The coincidence threshold is set to 0.7 or 0.8, for example.

また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこでプルキンエ像検出部24は、眼の領域内で、同心円状に半径の異なる2本のリングを設定する。そしてプルキンエ像検出部24は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。またプルキンエ像検出部24は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼の領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
プルキンエ像検出部24は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の座標として算出する。一方、プルキンエ像検出部24は、瞳孔領域の検出に失敗した場合、制御部4へその旨を表す信号を返す。
The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Therefore, the Purkinje image detection unit 24 sets two concentric rings with different radii in the eye region. When the difference value obtained by subtracting the average luminance value of the inner pixels from the average luminance value of the pixels corresponding to the outer ring is larger than a predetermined threshold value, the Purkinje image detection unit 24 is surrounded by the inner ring. The region may be the pupil region. The Purkinje image detection unit 24 may add to the condition for detecting the pupil region that the average luminance value of the region surrounded by the inner ring is equal to or less than a predetermined threshold value. In this case, for example, the predetermined threshold is set to a value obtained by adding 10% to 20% of the difference between the maximum luminance value and the minimum luminance value in the eye region to the minimum luminance value.
When the Purkinje image detection unit 24 succeeds in detecting the pupil region, the Purkinje image detection unit 24 calculates the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the pupil region as the coordinates of the center of gravity of the pupil region. . On the other hand, if the Purkinje image detection unit 24 fails to detect the pupil region, the Purkinje image detection unit 24 returns a signal indicating that to the control unit 4.

またプルキンエ像検出部24は、眼の領域内で光源11のプルキンエ像を検出する。光源11のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高く、その輝度値は略飽和している(すなわち、輝度値が、画素値が取り得る輝度の値の略最高値となっている)。また、光源11のプルキンエ像が写っている領域の形状は、各光源の発光面の形状と略一致する。そこでプルキンエ像検出部24は、眼の領域内で、光源の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そしてプルキンエ像検出部24は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値を求める。プルキンエ像検出部24は、その差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い場合、その内側のリングで囲まれた領域を光源11のプルキンエ像とする。なお、差分閾値は、例えば、眼の領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼の領域内での輝度値の最高値の80%とすることができる。
なお、プルキンエ像検出部24は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、プルキンエ像検出部24は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
Further, the Purkinje image detection unit 24 detects the Purkinje image of the light source 11 in the eye region. The luminance of the region where the Purkinje image of the light source 11 is reflected is higher than the luminance of the surrounding region, and the luminance value is substantially saturated (that is, the luminance value is approximately the luminance value that the pixel value can take). It is the highest value). In addition, the shape of the region where the Purkinje image of the light source 11 is reflected substantially matches the shape of the light emitting surface of each light source. Therefore, the Purkinje image detection unit 24 sets two rings that have a shape that substantially matches the contour shape of the light emitting surface of the light source in the eye region, and that have different sizes and centers. Then, the Purkinje image detection unit 24 obtains a difference value obtained by subtracting the average value of the luminance of the outer pixels from the average value of the luminance of the pixels corresponding to the inner ring. When the difference value is larger than the predetermined difference threshold value and the inner luminance average value is higher than the predetermined luminance threshold value, the Purkinje image detection unit 24 defines the area surrounded by the inner ring as the Purkinje image of the light source 11. To do. Note that the difference threshold value can be, for example, an average value of difference values between neighboring pixels in the eye region. The predetermined luminance threshold can be set to 80% of the maximum luminance value in the eye region, for example.
Note that the Purkinje image detection unit 24 may detect the region in which the pupil is shown using any of various other methods for detecting the region in which the pupil is shown on the image. Similarly, the Purkinje image detection unit 24 detects the region where the Purkinje image of the light source is captured using any of various other methods for detecting the region where the Purkinje image of the light source is captured on the image. Also good.

プルキンエ像検出部24は、光源11のプルキンエ像の検出に成功した場合、光源に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の座標として算出する。一方、プルキンエ像検出部24は、光源のプルキンエ像の検出に失敗した場合、制御部4へその旨を表す信号を返す。
プルキンエ像検出部24は、キャリブレーション処理の実行時の場合、プルキンエ像の重心及び瞳孔重心をキャリブレーション部29へ通知する。一方、プルキンエ像検出部24は、視線検出処理の実行時には、プルキンエ像の重心及び瞳孔重心を視線検出部25へ通知する。
When the Purkinje image detection unit 24 succeeds in detecting the Purkinje image of the light source 11, the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the light source are used as the coordinates of the center of gravity of the Purkinje image. calculate. On the other hand, if the Purkinje image detection unit 24 fails to detect the Purkinje image of the light source, the Purkinje image detection unit 24 returns a signal indicating that to the control unit 4.
The Purkinje image detection unit 24 notifies the calibration unit 29 of the center of gravity of the Purkinje image and the center of the pupil when performing the calibration process. On the other hand, the Purkinje image detection unit 24 notifies the gaze detection unit 25 of the center of gravity of the Purkinje image and the center of the pupil when performing the gaze detection process.

視線検出部25は、視線検出処理の実行中において、プルキンエ像の重心及び瞳孔重心に基づいてユーザの視線方向を検出する。   The line-of-sight detection unit 25 detects the user's line-of-sight direction based on the center of gravity of the Purkinje image and the center of the pupil during the line-of-sight detection process.

角膜の表面は略球形であるため、視線方向によらず、光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、視線検出部25は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。
本実施形態では、視線検出部25は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部25は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを参照することにより、ユーザの注視位置を決定する。
そして視線検出部25は、ユーザの視線方向を注視位置検出部28へ通知する。
Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the light source is substantially constant regardless of the line-of-sight direction. On the other hand, the center of gravity of the pupil moves according to the user's line-of-sight direction. Therefore, the line-of-sight detection unit 25 can detect the user's line-of-sight direction by obtaining the relative position of the pupil center of gravity with respect to the center of gravity of the Purkinje image.
In the present embodiment, the line-of-sight detection unit 25 determines the relative position of the pupil centroid relative to the centroid of the Purkinje image of the light source, for example, the horizontal direction of the centroid of the Purkinje image from the horizontal coordinate and the vertical coordinate of the pupil centroid. It is obtained by subtracting the coordinate and the vertical coordinate. The line-of-sight detection unit 25 determines the user's gaze position by referring to a reference table that represents the relationship between the relative position of the pupil center of gravity and the user's line-of-sight direction.
The line-of-sight detection unit 25 notifies the gaze position detection unit 28 of the user's line-of-sight direction.

図4は、参照テーブルの一例を示す図である。参照テーブル400の左側の列の各欄には、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置の座標が表される。また参照テーブル400の右側の列の各欄には、同じ行の瞳孔重心の相対的な位置の座標に対応するユーザの視線方向が表される。なお、この例では、視線方向は、表示画面2a上の基準点をユーザが注視しているときの視線方向を基準方向として、その基準方向からの水平方向及び垂直方向の角度の差で表される。なお、瞳孔重心の相対的な位置の座標は、画像上の画素単位で表される。   FIG. 4 is a diagram illustrating an example of a reference table. In each column of the left column of the reference table 400, the coordinates of the relative position of the pupil centroid relative to the centroid of the Purkinje image of the light source are represented. In each column in the right column of the reference table 400, the line-of-sight direction of the user corresponding to the coordinates of the relative position of the pupil centroid in the same row is represented. In this example, the line-of-sight direction is represented by the difference in angle between the horizontal direction and the vertical direction from the reference direction, with the line-of-sight direction when the user is gazing at the reference point on the display screen 2a as the reference direction. The Note that the coordinates of the relative position of the center of gravity of the pupil are expressed in units of pixels on the image.

距離特徴量抽出部26は、被写体距離に応じて変化する距離特徴量を画像から抽出する。ここで、カメラ12により得られた画像上のユーザの顔の大きさは、被写体距離が離れるほど小さくなる。そのため、画像上での顔の特徴的な部位間の距離も、被写体距離に応じて変化する。   The distance feature amount extraction unit 26 extracts a distance feature amount that changes according to the subject distance from the image. Here, the size of the user's face on the image obtained by the camera 12 decreases as the subject distance increases. Therefore, the distance between characteristic parts of the face on the image also changes according to the subject distance.

このことを、図5(a)及び図5(b)を参照しつつ説明する。図5(a)は、被写体距離が比較的近い第1の距離である場合の画像上のユーザの顔を表す模式図である。図5(b)は、被写体距離が第1の距離よりも遠い第2の距離である場合の画像上のユーザの顔を表す模式図である。図5(a)及び図5(b)に示されるように、画像500、510には、それぞれ、ユーザの顔の左右の鼻孔501が写っている。そして画像500の撮影時の被写体距離が、画像510の撮影時の被写体距離より短いので、画像500に写っているユーザの顔の面積の方が、画像510に写っているユーザの顔の面積よりも大きい。そのため、画像500に写っている左右の鼻孔501間の間隔Δnは、画像510に写っている左右の鼻孔501間の間隔Δfよりも広い。このように、被写体距離が大きいほど、画像上での左右の鼻孔間の距離が短くなることが分かる。同様に、被写体距離が短いほど、画像上での両目の中心間の間隔、口と鼻の間隔、何れかの目の中心と口との間隔、あるいは左右の口角点間の間隔など、二つの特徴的な部位間の画像上の距離は大きくなる。   This will be described with reference to FIGS. 5 (a) and 5 (b). FIG. 5A is a schematic diagram showing the user's face on the image when the subject distance is a relatively short first distance. FIG. 5B is a schematic diagram showing the user's face on the image when the subject distance is the second distance that is longer than the first distance. As shown in FIGS. 5A and 5B, the images 500 and 510 include the left and right nostrils 501 of the user's face, respectively. Since the subject distance at the time of shooting the image 500 is shorter than the subject distance at the time of shooting the image 510, the area of the user's face shown in the image 500 is larger than the area of the user's face shown in the image 510. Is also big. Therefore, the interval Δn between the left and right nostrils 501 shown in the image 500 is wider than the interval Δf between the left and right nostrils 501 shown in the image 510. Thus, it can be seen that the greater the subject distance, the shorter the distance between the left and right nostrils on the image. Similarly, as the subject distance is shorter, the distance between the centers of the eyes on the image, the distance between the mouth and the nose, the distance between the center of any eye and the mouth, or the distance between the left and right mouth corner points, etc. The distance on the image between characteristic parts becomes large.

図6は、画像上での左右の鼻孔の重心間の間隔と被写体距離との関係の実験結果を表すグラフである。図6において、横軸は被写体距離を表し、縦軸は左右の鼻孔の重心間の間隔(ピクセル単位)を表す。そして各点は、それぞれ、被写体距離300mm〜600mmにおける左右の鼻孔の重心間の間隔を表す。この実験では、1/3.2インチ(水平方向4.73mm、垂直方向3.52mm)の200万画素CMOSセンサと対角方向画角58°を持つ結像光学系を有するカメラにより顔を撮影した画像を用いた。各点に示されるように、左右の鼻孔の重心間の間隔は、被写体距離が大きくなるほど小さくなっている。また、点601に示される、被写体距離が最大(600mm)のときの左右の鼻孔の重心間の間隔に対して、点602に示される、被写体距離が最小(300mm)のときの左右の鼻孔の重心間の間隔は約4倍となる。このように、画像上での左右の鼻孔の重心間の間隔は被写体距離に応じて大きく変化することが分かる。したがって、画像上の左右の鼻孔の重心間の間隔は距離特徴量として使用可能である。同様に、左右の目の中心間の間隔、鼻尖点と口の中心間の間隔なども距離特徴量として使用可能である。
そこで本実施形態では、距離特徴量抽出部26は、顔領域内で眼、鼻の穴、口角点などの特徴的な部位を少なくとも二つ検出し、その特徴的な部位間の距離を距離特徴量とする。
FIG. 6 is a graph showing the experimental results of the relationship between the distance between the center of gravity of the right and left nostrils on the image and the subject distance. In FIG. 6, the horizontal axis represents the subject distance, and the vertical axis represents the interval (pixel unit) between the center of gravity of the right and left nostrils. Each point represents the distance between the center of gravity of the right and left nostrils at a subject distance of 300 mm to 600 mm. In this experiment, we used an image of a face photographed with a 1 / 3.2-inch (horizontal 4.73 mm, vertical 3.52 mm) 2-megapixel CMOS sensor and a camera with an imaging optical system with a diagonal field angle of 58 °. It was. As indicated by each point, the distance between the center of gravity of the right and left nostrils decreases as the subject distance increases. Further, the distance between the center of gravity of the right and left nostrils when the subject distance is maximum (600 mm) shown by the point 601 is shown, and the right and left nostrils when the subject distance is minimum (300 mm) shown by the point 602 is also shown. The distance between the center of gravity is about 4 times. Thus, it can be seen that the distance between the center of gravity of the right and left nostrils on the image varies greatly depending on the subject distance. Therefore, the distance between the center of gravity of the right and left nostrils on the image can be used as the distance feature amount. Similarly, the distance between the centers of the left and right eyes, the distance between the nose tip and the center of the mouth, and the like can also be used as the distance feature amount.
Therefore, in the present embodiment, the distance feature quantity extraction unit 26 detects at least two characteristic parts such as eyes, nostrils, and corner points of the mouth in the face region, and determines the distance between the characteristic parts as a distance feature. Amount.

距離特徴量抽出部26は、顔領域と、目、鼻孔、口などの特徴的な部位の一般的な形状に相当するテンプレートとの間で相対的な位置を変えつつテンプレートマッチングを行って、顔領域とテンプレートとの一致度を算出する。例えば、鼻孔に関するテンプレートは、略円形状の輝度が低い領域とその周囲に輝度が高い領域とを有するように設定される。そして距離特徴量抽出部26は、顔領域内の特定位置で一致度が所定値以上である場合に、その特定位置にテンプレートに相当する部位が写っていると判定する。距離特徴量抽出部26は、少なくとも二つの部位の画像上の位置を求め、その部位間の距離を距離特徴量とする。
距離特徴量抽出部26は、視線検出処理の実行時には、距離特徴量を距離推定部27へ渡す。一方、距離特徴量抽出部26は、キャリブレーション処理の実行時の場合、距離特徴量をキャリブレーション部29へ通知する。
The distance feature amount extraction unit 26 performs template matching while changing the relative position between a face region and a template corresponding to a general shape of a characteristic part such as an eye, a nostril, a mouth, and the like. The degree of coincidence between the area and the template is calculated. For example, the nostril template is set so as to have a substantially circular area with low luminance and a high luminance area around it. The distance feature amount extraction unit 26 determines that a part corresponding to the template is captured at the specific position when the degree of coincidence is a predetermined value or more at the specific position in the face region. The distance feature quantity extraction unit 26 obtains positions on the image of at least two parts, and uses the distance between the parts as a distance feature quantity.
The distance feature amount extraction unit 26 passes the distance feature amount to the distance estimation unit 27 when the line-of-sight detection process is executed. On the other hand, the distance feature amount extraction unit 26 notifies the calibration unit 29 of the distance feature amount when the calibration process is executed.

距離推定部27は、距離特徴量に基づいて、被写体距離を推定する。本実施形態では、距離推定部27は、メモリ3に予め記憶されている、距離特徴量と被写体距離との関係を表す距離参照テーブルを参照することにより、距離特徴量に対応する被写体距離を推定する。
あるいは、距離推定部27は、距離特徴量と被写体距離との関係式に、距離特徴量抽出部26により求められた距離特徴量を入力することにより、被写体距離を求めてもよい。なお、距離参照テーブル及び距離特徴量と被写体距離との関係式は、それぞれ、距離情報の一例である。
距離推定部27は、視線検出処理の実行時には、被写体距離を注視位置検出部28へ通知する。一方、距離推定部27は、キャリブレーション処理の実行時の場合、その距離をキャリブレーション部29へ通知する。
The distance estimation unit 27 estimates the subject distance based on the distance feature amount. In the present embodiment, the distance estimation unit 27 estimates the subject distance corresponding to the distance feature amount by referring to a distance reference table that is stored in advance in the memory 3 and represents the relationship between the distance feature amount and the subject distance. To do.
Alternatively, the distance estimation unit 27 may obtain the subject distance by inputting the distance feature amount obtained by the distance feature amount extraction unit 26 into the relational expression between the distance feature amount and the subject distance. The distance reference table and the relational expression between the distance feature amount and the subject distance are examples of distance information.
The distance estimation unit 27 notifies the gaze position detection unit 28 of the subject distance when the line-of-sight detection process is executed. On the other hand, the distance estimation unit 27 notifies the calibration unit 29 of the distance when the calibration process is executed.

注視位置検出部28は、ユーザの視線方向及び被写体距離に基づいて、ユーザが表示画面2a上で注視している位置を検出する。なお、以下では、便宜上、ユーザが表示画面2a上で注視している位置を単に注視位置と呼ぶ。
本実施形態では、注視位置検出部28は、ユーザの視線方向及び被写体距離と表示画面2a上でのユーザの注視位置との関係を表す注視位置テーブルを参照することにより、ユーザの注視位置を決定する。
The gaze position detection unit 28 detects a position where the user is gazing on the display screen 2a based on the user's line-of-sight direction and subject distance. Hereinafter, for the sake of convenience, a position where the user is gazing on the display screen 2a is simply referred to as a gazing position.
In the present embodiment, the gaze position detection unit 28 determines the user's gaze position by referring to a gaze position table that represents the relationship between the user's gaze direction and subject distance and the user's gaze position on the display screen 2a. To do.

図7は、注視位置テーブルの一例を示す図である。注視位置テーブル700の左側の列には、被写体距離が表される。また注視位置テーブル700の上端の行には、ユーザの視線方向が表される。そして注視位置テーブル700の各欄には、同じ行の被写体距離及び同じ列の視線方向に対応する、表示画面2a上の注視位置の座標が表示画面2aの画素単位で表される。例えば、注視位置テーブル700の欄701には、距離200mmで視線方向が水平方向0°、垂直方向1°の場合の注視位置が(cx,cy+40)であることが示されている。なお、cx、cyは、視線方向が(0,0)のときの注視位置、すなわち基準注視位置の座標、例えば、表示画面2aの中心の水平座標及び垂直座標である。   FIG. 7 is a diagram illustrating an example of a gaze position table. In the left column of the gaze position table 700, the subject distance is represented. In addition, the line at the upper end of the gaze position table 700 represents the user's line-of-sight direction. In each column of the gaze position table 700, the coordinates of the gaze position on the display screen 2a corresponding to the subject distance in the same row and the line-of-sight direction in the same column are expressed in units of pixels on the display screen 2a. For example, the column 701 of the gaze position table 700 indicates that the gaze position is (cx, cy + 40) when the distance is 200 mm and the line-of-sight direction is 0 ° in the horizontal direction and 1 ° in the vertical direction. Note that cx and cy are the gaze position when the line-of-sight direction is (0, 0), that is, the coordinates of the reference gaze position, for example, the horizontal and vertical coordinates of the center of the display screen 2a.

あるいは、注視位置検出部28は、被写体距離が所定の基準距離である場合の、視線方向に対する注視位置を基準注視位置として注視位置テーブルを参照して求め、その基準注視位置を被写体距離に応じて補正してもよい。なお基準距離は、例えば、キャリブレーション処理の実行時において指定された被写体距離であり、300mmに設定される。この場合、補正により算出される注視位置の水平座標vx及び垂直座標vyは以下の式で算出される。
vx = R(vrx-cx) + cx
vy = R(vry-cy) + cy
ここで、vrx、vryは、それぞれ、表示画面上の基準注視位置の水平座標及び垂直座標であり、cx、cyは、視線方向が(0,0)のときの注視位置の座標である。そしてRは、基準距離に対する距離推定部27により推定された距離の比である。
注視位置検出部28は、ユーザの注視位置を制御部4で実行中のアプリケーションプログラムへ通知する。
Alternatively, the gaze position detection unit 28 obtains the gaze position with respect to the line-of-sight direction as a reference gaze position with reference to the gaze position table when the subject distance is a predetermined reference distance, and determines the reference gaze position according to the subject distance. It may be corrected. The reference distance is, for example, a subject distance designated at the time of executing the calibration process, and is set to 300 mm. In this case, the horizontal coordinate vx and the vertical coordinate vy of the gaze position calculated by the correction are calculated by the following equations.
vx = R (vrx-cx) + cx
vy = R (vry-cy) + cy
Here, vrx and vry are the horizontal coordinate and vertical coordinate of the reference gaze position on the display screen, respectively, and cx and cy are the coordinates of the gaze position when the line-of-sight direction is (0, 0). R is the ratio of the distance estimated by the distance estimation unit 27 to the reference distance.
The gaze position detection unit 28 notifies the application program being executed by the control unit 4 of the user's gaze position.

キャリブレーション部29は、キャリブレーション処理を実行することにより、上記の参照テーブル及び距離参照テーブルを更新する。
キャリブレーション部29は、例えば、制御部4から携帯端末1が起動したことを示す信号を受信したとき、あるいは、特定のアプリケーションが起動されたことを示す信号を受信したときに、キャリブレーション処理を実行する。
The calibration unit 29 updates the reference table and the distance reference table by executing a calibration process.
For example, when the calibration unit 29 receives a signal indicating that the mobile terminal 1 is activated from the control unit 4 or receives a signal indicating that a specific application is activated, the calibration unit 29 performs the calibration process. Execute.

キャリブレーション処理が開始されると、キャリブレーション部29は、ユーザインターフェース2の表示画面2a上の所定の基準位置にキャリブレーション用のマークを表示させる。基準位置は、例えば、表示画面2aの中心、あるいは表示画面2aの4角の何れかとすることができる。
さらに、キャリブレーション部29は、キャリブレーション中において、携帯端末1の表示画面2aからどれだけ離した位置に顔を配置するのかを指示するために、表示画面2aからユーザの顔までの指定距離を表示画面2a上に表示させる。
キャリブレーションの実行中、ユーザは、表示画面2a上に表示されているキャリブレーション用のマークを注視するものとする。
When the calibration process is started, the calibration unit 29 displays a calibration mark at a predetermined reference position on the display screen 2 a of the user interface 2. The reference position can be, for example, either the center of the display screen 2a or the four corners of the display screen 2a.
Further, the calibration unit 29 determines a specified distance from the display screen 2a to the user's face in order to instruct how far away from the display screen 2a of the portable terminal 1 the face is to be arranged during calibration. It is displayed on the display screen 2a.
During the execution of calibration, it is assumed that the user gazes at the calibration mark displayed on the display screen 2a.

キャリブレーション部29は、表示画面2aの中心にマークが表示されているときに撮影された画像に基づいて検出された、プルキンエ像の重心及び瞳孔重心の座標をプルキンエ像検出部24から受け取る。そしてキャリブレーション部29は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、ユーザが表示画面2aの中心を注視したときの視線方向に対応させるよう、参照テーブルを更新する。なお、注視位置の座標と視線方向とは1対1に対応する。そこでキャリブレーション部29は、例えば、ユーザが表示画面2aの中心を注視したときの視線方向を、水平方向及び垂直方向とも0°とする。   The calibration unit 29 receives, from the Purkinje image detection unit 24, the coordinates of the center of gravity of the Purkinje image and the center of the pupil detected based on the image taken when the mark is displayed at the center of the display screen 2a. Then, the calibration unit 29 updates the reference table so that the relative position of the pupil center of gravity relative to the center of the Purkinje image corresponds to the line-of-sight direction when the user gazes at the center of the display screen 2a. Note that the coordinates of the gaze position and the line-of-sight direction correspond one-to-one. Therefore, for example, the calibration unit 29 sets the viewing direction when the user gazes at the center of the display screen 2a to 0 ° in both the horizontal direction and the vertical direction.

またキャリブレーション部29は、表示画面2aの左上の角にマークが表示されているときに撮影された画像に基づいて検出された、プルキンエ像の重心及び瞳孔重心の座標をプルキンエ像検出部24から受け取る。そしてキャリブレーション部29は、このときのプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、ユーザが表示画面2aの左上の角を注視したときの視線方向に対応させるよう、参照テーブルを更新する。同様に、キャリブレーション部29は、マークが表示画面2aの他の角に表示されているときの撮影画像上でのプルキンエ像の重心に対する瞳孔重心の相対的位置を、ユーザがマークの表示位置を注視したときの視線方向と対応づけるよう参照テーブルを更新する。
さらに、キャリブレーション部29は、他の視線方向に対するプルキンエ像の重心を基準とした瞳孔重心の相対的位置を、既に求めた上記の5個のマークの位置に対応する瞳孔重心の相対的な位置を用いて例えば線形補間することにより決定する。そしてキャリブレーション部29は、様々な視線方向に対する瞳孔重心の相対的な位置を対応づけるように参照テーブルを更新する。
Further, the calibration unit 29 obtains the coordinates of the center of the Purkinje image and the center of the pupil detected based on the image taken when the mark is displayed in the upper left corner of the display screen 2a from the Purkinje image detection unit 24. receive. The calibration unit 29 then refers to the reference table so that the relative position of the pupil center of gravity based on the center of the Purkinje image at this time corresponds to the line of sight when the user gazes at the upper left corner of the display screen 2a. Update. Similarly, the calibration unit 29 determines the relative position of the pupil center of gravity with respect to the center of the Purkinje image on the captured image when the mark is displayed at another corner of the display screen 2a, and the user determines the display position of the mark. The reference table is updated so as to be associated with the line-of-sight direction at the time of gaze.
Further, the calibration unit 29 calculates the relative position of the pupil centroid relative to the centroid of the Purkinje image with respect to other line-of-sight directions as the relative position of the pupil centroid corresponding to the positions of the five marks already obtained. For example, by linear interpolation. Then, the calibration unit 29 updates the reference table so as to associate the relative positions of the pupil centroids with respect to various gaze directions.

また、キャリブレーション部29は、上記の指定距離における距離特徴量を距離特徴量抽出部26から受け取る。そしてキャリブレーション部29は、距離特徴量を指定距離と対応付けるように距離参照テーブルを更新する。さらにキャリブレーション部29は、指定距離を様々に変えて、カメラ12にユーザの顔を撮影した画像を作成させてもよい。この場合、キャリブレーション部29は、それぞれの指定距離において撮影された画像から抽出された距離特徴量を距離特徴量抽出部26から受け取る。そしてキャリブレーション部29は、各指定距離とその指定距離における距離特徴量を対応付けるように距離参照テーブルを更新する。   Further, the calibration unit 29 receives the distance feature amount at the specified distance from the distance feature amount extraction unit 26. The calibration unit 29 then updates the distance reference table so that the distance feature amount is associated with the specified distance. Further, the calibration unit 29 may cause the camera 12 to create an image of the user's face by changing the designated distance. In this case, the calibration unit 29 receives from the distance feature amount extraction unit 26 distance feature amounts extracted from images taken at the respective specified distances. Then, the calibration unit 29 updates the distance reference table so that each specified distance is associated with the distance feature amount at the specified distance.

なお、本実施形態のように、距離特徴量が顔の二つの特定部位間の画像上の距離であれば、被写体距離と距離特徴量とは反比例する。そこでこの場合、キャリブレーション部29は、任意の被写体距離dに対する距離特徴量を、指定距離d0について求めた距離特徴量に、その被写体距離dに対する指定距離d0の比(d0/d)を乗じることで求めてもよい。そしてキャリブレーション部29は、計算により算出された距離特徴量及び対応する被写体距離に基づいて、距離参照テーブルを更新してもよい。この場合、視線検出装置10は、一つの指定距離についてのみユーザの顔を撮影すればよいので、キャリブレーション処理の手間を軽減できる。
キャリブレーション部29は、更新された参照テーブル及び距離参照テーブルをメモリ3に保存する。
If the distance feature amount is a distance on the image between two specific parts of the face as in the present embodiment, the subject distance and the distance feature amount are inversely proportional. Therefore, in this case, the calibration unit 29 multiplies the distance feature amount obtained for the specified distance d0 by the ratio (d0 / d) of the specified distance d0 to the subject distance d. You may ask for. Then, the calibration unit 29 may update the distance reference table based on the distance feature amount calculated by the calculation and the corresponding subject distance. In this case, the line-of-sight detection device 10 only needs to photograph the user's face for one specified distance, so that the labor of calibration processing can be reduced.
The calibration unit 29 stores the updated reference table and distance reference table in the memory 3.

また、距離特徴量に関する個人差が無視できるほど小さい場合、予め一般的な顔のモデルを撮影した画像から抽出された距離特徴量、あるいはシミュレーションにより算出される距離特徴量に基づいて予め距離参照テーブルが作成されていてもよい。この場合には、キャリブレーション部29は、距離参照テーブルを更新しなくてもよい。   In addition, when the individual difference regarding the distance feature amount is so small as to be negligible, a distance reference table in advance based on a distance feature amount extracted from an image obtained by photographing a general face model in advance or a distance feature amount calculated by simulation. May be created. In this case, the calibration unit 29 does not have to update the distance reference table.

図8は、制御部4により実行される、キャリブレーション処理の動作フローチャートを示す。
制御部4は、ユーザインターフェース2の表示画面2a上の基準位置に所定のマークを表示させる(ステップS101)。次に、制御部4は、光源11が点灯した状態でユーザの顔を撮影した画像をカメラ12から取得する(ステップS102)。制御部4の顔検出部23は、画像上で顔が写っている顔領域を抽出する(ステップS103)。そして顔検出部23は、顔領域を表す情報を制御部4のプルキンエ像検出部24及び距離特徴量抽出部26へ渡す。
FIG. 8 shows an operation flowchart of the calibration process executed by the control unit 4.
The control unit 4 displays a predetermined mark at the reference position on the display screen 2a of the user interface 2 (step S101). Next, the control part 4 acquires the image which image | photographed the user's face in the state which the light source 11 turned on from the camera 12 (step S102). The face detection unit 23 of the control unit 4 extracts a face region where a face is shown on the image (step S103). Then, the face detection unit 23 passes information representing the face area to the Purkinje image detection unit 24 and the distance feature quantity extraction unit 26 of the control unit 4.

プルキンエ像検出部24は、顔領域内で眼の領域を検出する(ステップS104)。そしてプルキンエ像検出部24は、眼の領域内で瞳孔重心を検出する(ステップS105)。またプルキンエ像検出部24は、眼の領域内で点灯している光源のプルキンエ像を検出する(ステップS106)。   The Purkinje image detection unit 24 detects an eye region within the face region (step S104). Then, the Purkinje image detector 24 detects the center of gravity of the pupil in the eye region (step S105). The Purkinje image detection unit 24 detects the Purkinje image of the light source that is lit in the eye region (step S106).

プルキンエ像検出部24は、瞳孔重心及び光源のプルキンエ像の検出に成功したか否か判定する(ステップS107)。プルキンエ像検出部24が瞳孔重心または光源のプルキンエ像の検出に失敗した場合(ステップS107−No)、制御部4は、カメラ12に再撮影を指示する(ステップS108)。そして制御部4はステップS102以降の処理を再実行する。
一方、プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に成功した場合(ステップS107−Yes)、プルキンエ像検出部24は、光源のプルキンエ像の重心及び瞳孔重心を制御部4のキャリブレーション部29へ通知する。
キャリブレーション部29は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求める。そしてキャリブレーション部29は、その相対的な位置と表示画面2aに表示されているマークの位置により決定される視線方向とに基づいて、参照テーブルを更新する(ステップS109)。
The Purkinje image detection unit 24 determines whether or not the pupil center of gravity and the Purkinje image of the light source have been successfully detected (step S107). If the Purkinje image detection unit 24 fails to detect the center of the pupil or the Purkinje image of the light source (No at Step S107), the control unit 4 instructs the camera 12 to perform re-imaging (Step S108). And the control part 4 re-executes the process after step S102.
On the other hand, when the Purkinje image detection unit 24 has successfully detected the pupil center of gravity and the Purkinje image of the light source (Yes in step S107), the Purkinje image detection unit 24 calibrates the center of gravity of the Purkinje image of the light source and the pupil center of gravity of the control unit 4. Notification to the application unit 29.
The calibration unit 29 obtains the relative position of the pupil centroid relative to the centroid of the Purkinje image. Then, the calibration unit 29 updates the reference table based on the relative position and the line-of-sight direction determined by the position of the mark displayed on the display screen 2a (step S109).

また距離特徴量抽出部26は、画像から指定距離における距離特徴量を抽出する(ステップS110)。距離特徴量抽出部26は、その距離特徴量をキャリブレーション部29へ通知する。そしてキャリブレーション部29は、指定距離と距離特徴量とを対応付けるように距離参照テーブルを更新する(ステップS111)。
ステップS111の後、制御部4は、キャリブレーション処理を終了する。なお、プルキンエ像検出部24は、ステップS105の処理とステップS106の処理の順序を入れ替えてもよい。またプルキンエ像検出部24は、顔領域全体でユーザの瞳孔及び光源のプルキンエ像を探索してもよい。この場合、ステップS104の処理は省略される。さらに、制御部4は、ステップS104〜S109の処理とステップS110及びS111の処理の順序を入れ替えてもよい。
The distance feature amount extraction unit 26 extracts a distance feature amount at a specified distance from the image (step S110). The distance feature quantity extraction unit 26 notifies the calibration unit 29 of the distance feature quantity. Then, the calibration unit 29 updates the distance reference table so as to associate the designated distance with the distance feature amount (step S111).
After step S111, the control unit 4 ends the calibration process. Note that the Purkinje image detection unit 24 may change the order of the processing in step S105 and the processing in step S106. Further, the Purkinje image detection unit 24 may search for the Purkinje image of the user's pupil and light source in the entire face area. In this case, the process of step S104 is omitted. Furthermore, the control unit 4 may exchange the order of the processes of steps S104 to S109 and the processes of steps S110 and S111.

図9は、制御部4により実行される、視線検出処理の動作フローチャートを示す。
制御部4は、光源11が点灯した状態でユーザの顔を撮影した画像をカメラ12から取得する(ステップS201)。そして制御部4の顔検出部23は、画像上で顔が写っている顔領域を抽出する(ステップS202)。顔検出部23は、顔領域の抽出に成功したか否か判定する(ステップS203)。顔領域の抽出に失敗した場合(ステップS203−No)、ユーザは携帯端末1を向いていない。そのため、制御部4は、視線検出処理を終了する。その後制御部4は、キャリブレーション処理を実行してもよい。あるいは、制御部4は、ステップS201以降の処理を再度実行してもよい。この場合には、制御部4のカメラ制御部22は、前回の撮影時の露出条件と異なる露出条件でユーザの顔を撮影するようにカメラ12に制御信号を送信してもよい。
FIG. 9 shows an operation flowchart of the line-of-sight detection process executed by the control unit 4.
The control unit 4 acquires an image obtained by photographing the user's face with the light source 11 turned on from the camera 12 (step S201). Then, the face detection unit 23 of the control unit 4 extracts a face area where the face is shown on the image (step S202). The face detection unit 23 determines whether the face area has been successfully extracted (step S203). When face area extraction has failed (step S203—No), the user is not facing the mobile terminal 1. Therefore, the control unit 4 ends the line-of-sight detection process. Thereafter, the control unit 4 may execute a calibration process. Or the control part 4 may perform the process after step S201 again. In this case, the camera control unit 22 of the control unit 4 may transmit a control signal to the camera 12 so that the user's face is photographed under an exposure condition different from the exposure condition at the previous photographing.

一方、顔検出部23が顔領域の抽出に成功した場合(ステップS203−Yes)、顔検出部23は、顔領域を表す情報を制御部4のプルキンエ像検出部24及び距離特徴量抽出部26へ渡す。
プルキンエ像検出部24は、顔領域内で眼の領域を検出する(ステップS204)。そしてプルキンエ像検出部24は、眼の領域内で瞳孔重心を検出する(ステップS205)。またプルキンエ像検出部24は、眼の領域内で光源11のプルキンエ像を検出する(ステップS206)。そしてプルキンエ像検出部24は、瞳孔重心及び光源のプルキンエ像の検出に成功したか否か判定する(ステップS207)。
On the other hand, when the face detection unit 23 has successfully extracted the face area (step S203—Yes), the face detection unit 23 uses the Purkinje image detection unit 24 and the distance feature quantity extraction unit 26 of the control unit 4 to obtain information representing the face area. To pass.
The Purkinje image detection unit 24 detects an eye region within the face region (step S204). Then, the Purkinje image detection unit 24 detects the center of the pupil in the eye region (step S205). Further, the Purkinje image detection unit 24 detects the Purkinje image of the light source 11 in the eye region (step S206). Then, the Purkinje image detection unit 24 determines whether or not the pupil center of gravity and the Purkinje image of the light source have been successfully detected (step S207).

プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に失敗した場合(ステップS207−No)、制御部4は、ステップS201以降の処理を再度実行する。その際、カメラ制御部22は、前回の撮影時の露出条件と異なる露出条件でユーザの顔を撮影するようにカメラ12に制御信号を送信してもよい。
一方、プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に成功した場合(ステップS207−Yes)、プルキンエ像検出部24は、光源のプルキンエ像の重心及び瞳孔重心を制御部4の視線検出部25へ通知する。
視線検出部25は、参照テーブルを参照してプルキンエ像の重心を基準とする瞳孔重心の位置に対応する視線方向を検出する(ステップS208)。そして視線検出部25は、その視線方向を表す情報を、制御部4の注視位置検出部28へ渡す。
When the Purkinje image detection unit 24 fails to detect the pupil center of gravity and the Purkinje image of the light source (No in step S207), the control unit 4 executes the processes in and after step S201 again. At that time, the camera control unit 22 may transmit a control signal to the camera 12 so as to photograph the user's face under an exposure condition different from the exposure condition at the previous photographing.
On the other hand, when the Purkinje image detection unit 24 has successfully detected the pupil center of gravity and the Purkinje image of the light source (step S207-Yes), the Purkinje image detection unit 24 uses the line of sight of the Purkinje image of the light source and the pupil center of gravity of the control unit 4. Notify the detection unit 25.
The line-of-sight detection unit 25 refers to the reference table and detects the line-of-sight direction corresponding to the position of the pupil center of gravity based on the center of gravity of the Purkinje image (step S208). The line-of-sight detection unit 25 passes information indicating the line-of-sight direction to the gaze position detection unit 28 of the control unit 4.

また距離特徴量抽出部26は、画像から距離特徴量を抽出する(ステップS209)。距離特徴量抽出部26は、その距離特徴量を制御部4の距離推定部27へ渡す。そして距離推定部27は、距離参照テーブルを参照して距離特徴量に対応する、被写体距離を推定する(ステップS210)。そして距離推定部27は、被写体距離の推定値を、注視位置検出部28へ渡す。   The distance feature amount extraction unit 26 extracts a distance feature amount from the image (step S209). The distance feature amount extraction unit 26 passes the distance feature amount to the distance estimation unit 27 of the control unit 4. Then, the distance estimation unit 27 estimates the subject distance corresponding to the distance feature amount with reference to the distance reference table (step S210). Then, the distance estimation unit 27 passes the estimated value of the subject distance to the gaze position detection unit 28.

注視位置検出部28は、注視位置テーブルを参照して、視線方向及び被写体距離の推定値に対応する注視位置を求める(ステップS211)。そして注視位置検出部28は、その注視位置を表す情報を、制御部4が実行中のアプリケーションプログラムへ渡す。
その後、制御部4は、視線検出処理を終了する。なお、プルキンエ像検出部24は、ステップS205の処理とステップS206の処理の順序を入れ替えてもよい。またプルキンエ像検出部24は、顔領域全体でユーザの瞳孔及び光源のプルキンエ像を探索してもよい。この場合、ステップS204の処理は省略される。あるいは、プルキンエ像検出部24が着目画像上で瞳孔重心または光源のプルキンエ像の何れか一方の検出に失敗した時点で、他方の検出処理を行わずに、制御部4は、ステップS201以降の処理を再実行してもよい。
The gaze position detection unit 28 refers to the gaze position table and obtains a gaze position corresponding to the estimated values of the gaze direction and the subject distance (step S211). Then, the gaze position detection unit 28 passes information indicating the gaze position to the application program being executed by the control unit 4.
Thereafter, the control unit 4 ends the line-of-sight detection process. Note that the Purkinje image detection unit 24 may reverse the order of the processing in step S205 and the processing in step S206. Further, the Purkinje image detection unit 24 may search for the Purkinje image of the user's pupil and light source in the entire face area. In this case, the process of step S204 is omitted. Alternatively, when the Purkinje image detection unit 24 fails to detect either the pupil center of gravity or the Purkinje image of the light source on the image of interest, the control unit 4 performs the processing after step S201 without performing the other detection processing. May be re-executed.

以上に説明してきたように、第1の実施形態による視線検出装置は、視線検出処理の実行時における被写体距離を求め、その距離とプルキンエ像に基づいて求められる視線方向とからユーザの注視位置を求める。そのため、この視線検出装置は、キャリブレーションの実行時と視線検出処理の実行時とで被写体距離が異なっていても、正確に注視位置を検出できる。さらにこの視線検出装置は、プルキンエ像の検出に用いられる画像と同一の画像から被写体距離を表す特徴量を抽出し、その特徴量に基づいて被写体距離を推定できる。そのため、この視線検出装置は、被写体距離推定のために視線方向検出のための機構と別個の機構を持つ必要が無いので、装置構成を簡単化できる。   As described above, the line-of-sight detection device according to the first embodiment obtains the subject distance when performing the line-of-sight detection process, and determines the gaze position of the user from the distance and the line-of-sight direction obtained based on the Purkinje image. Ask. Therefore, this gaze detection apparatus can accurately detect the gaze position even when the subject distance is different between the execution of calibration and the execution of the gaze detection process. Further, this line-of-sight detection device can extract a feature amount representing the subject distance from the same image as that used for detecting the Purkinje image, and can estimate the subject distance based on the feature amount. For this reason, this gaze detection apparatus does not need to have a mechanism separate from the gaze direction detection mechanism for estimating the subject distance, so that the apparatus configuration can be simplified.

次に、第2の実施形態による視線検出装置について説明する。第2の実施形態による視線検出装置は、画像上のプルキンエ像のサイズを距離特徴量として求める。   Next, a gaze detection apparatus according to the second embodiment will be described. The line-of-sight detection apparatus according to the second embodiment obtains the size of the Purkinje image on the image as a distance feature amount.

第2の実施形態による視線検出装置は、第1の実施形態による視線検出装置と比較して、制御部の距離特徴量抽出部の処理が異なる。そこで、以下では、距離特徴量抽出部及びその関連部分について説明する。またこの実施形態についても、視線検出装置は携帯端末に搭載されるものとする。視線検出装置のその他の部分及び視線検出装置が搭載された携帯端末に関しては、第1の実施形態に関する関連部分の説明を参照されたい。   The line-of-sight detection apparatus according to the second embodiment differs from the line-of-sight detection apparatus according to the first embodiment in the processing of the distance feature amount extraction unit of the control unit. Therefore, hereinafter, the distance feature quantity extraction unit and its related parts will be described. Also in this embodiment, the line-of-sight detection device is mounted on a portable terminal. For the other parts of the line-of-sight detection device and the portable terminal on which the line-of-sight detection device is mounted, refer to the description of the related parts relating to the first embodiment.

光源11は、その周囲よりも明るいので、画像上でのプルキンエ像に相当する画素の輝度値もその周囲の画素の輝度値よりも高くなる。ここで、カメラ12の露出条件が適切に設定されていれば、画像上では、プルキンエ像に相当する画素の輝度値は、取り得る輝度値の最大値に近い値となる。すなわち、画像上でのプルキンエ像に相当する画素の輝度値は飽和する。
また、被写体距離が近いほど、画像上でのプルキンエ像のサイズも大きくなる。そのため、被写体距離が近いほど、プルキンエ像のサイズに相当する、ほぼ最大輝度値となる画素の数が増加する。
Since the light source 11 is brighter than the surrounding area, the luminance value of the pixel corresponding to the Purkinje image on the image is also higher than the luminance value of the surrounding pixels. Here, if the exposure condition of the camera 12 is appropriately set, the luminance value of the pixel corresponding to the Purkinje image is close to the maximum value of the luminance value that can be taken on the image. That is, the luminance value of the pixel corresponding to the Purkinje image on the image is saturated.
Further, the closer the subject distance, the larger the size of the Purkinje image on the image. For this reason, the closer the subject distance is, the larger the number of pixels having the maximum luminance value corresponding to the size of the Purkinje image.

図10(a)は、プルキンエ像が写った画像の一例を表し、図10(b)は、図10(a)の水平方向の線1000に沿った画素のうち、輝度値が飽和した画素(以下、便宜上飽和画素と呼ぶ)の数と被写体距離との関係の実験結果を表すグラフである。図10(b)において、横軸は被写体距離を表し、縦軸は輝度値を表す。そして点1001〜1004は、それぞれ、被写体距離200mm、300mm、400mm、500mmにおける飽和画素数を表す。この実験では、1/3.2インチ(水平方向4.73mm、垂直方向3.52mm)の200万画素CMOSセンサと対角方向画角58°を持つ結像光学系を有するカメラにより眼を撮影した画像を用いた。そして各画素の輝度値は0〜255の値を取り、輝度値240以上の画素を飽和画素とした。
点1001〜1004に示されるように、飽和画素数は、被写体距離が大きくなるほど少なくなることが分かる。また被写体距離が最大となるとき(500mm)の飽和画素数に対して、被写体距離が最小となるとき(200mm)となるときの飽和画素数は5倍になっている。このように、画像上でプルキンエ像のサイズに相当する飽和画素の数は、距離特徴量として使用可能である。
FIG. 10A shows an example of an image in which a Purkinje image is shown. FIG. 10B shows a pixel with a saturated luminance value among the pixels along the horizontal line 1000 in FIG. Hereinafter, it is a graph showing the experimental result of the relationship between the number of objects and the subject distance for convenience). In FIG. 10B, the horizontal axis represents the subject distance, and the vertical axis represents the luminance value. Points 1001 to 1004 represent the saturated pixel numbers at subject distances of 200 mm, 300 mm, 400 mm, and 500 mm, respectively. In this experiment, we used an image of the eye taken by a camera with a 1 / 3.2 inch (horizontal direction 4.73mm, vertical direction 3.52mm) 2 million pixel CMOS sensor and an imaging optical system with a diagonal field angle of 58 °. It was. And the luminance value of each pixel took the value of 0-255, and the pixel with the luminance value 240 or more was made into the saturation pixel.
As indicated by points 1001 to 1004, it can be seen that the number of saturated pixels decreases as the subject distance increases. The number of saturated pixels when the subject distance is minimum (200 mm) is five times that of the saturated pixel number when the subject distance is maximum (500 mm). Thus, the number of saturated pixels corresponding to the size of the Purkinje image on the image can be used as the distance feature amount.

そこで、この実施形態による距離特徴量抽出部26は、プルキンエ像検出部24から画像上でのプルキンエ像の領域を表す情報を取得する。そして距離特徴量抽出部26は、プルキンエ像の領域の重心を求め、その重心を通る1画素幅の直線である走査線を設定する。なお、走査線の方向は任意であり、例えば、水平方向あるいは垂直方向に設定される。距離特徴量抽出部26は、走査線上で、かつプルキンエ像の領域内で飽和画素の数をカウントする。例えば、距離特徴量算出部26は、輝度値が閾値以上となる画素を飽和画素とする。なお、閾値は、輝度値の最大値または最大値よりも僅かに小さい値、例えば、240〜255の何れかに設定される。
距離特徴量抽出部26は、視線検出処理の実行時には、距離特徴量としてその飽和画素の数を距離推定部27へ渡す。一方、距離特徴量抽出部26は、キャリブレーション処理の実行時の場合、距離特徴量としてその飽和画素の数をキャリブレーション部29へ通知する。
なお、変形例によれば、距離特徴量抽出部26は、プルキンエ像の領域内に含まれる飽和画素の総数を距離特徴量として算出してもよい。
Therefore, the distance feature amount extraction unit 26 according to this embodiment acquires information representing the area of the Purkinje image on the image from the Purkinje image detection unit 24. Then, the distance feature quantity extraction unit 26 obtains the center of gravity of the Purkinje image region, and sets a scanning line that is a straight line having a width of one pixel that passes through the center of gravity. Note that the direction of the scanning line is arbitrary, and is set in the horizontal direction or the vertical direction, for example. The distance feature amount extraction unit 26 counts the number of saturated pixels on the scanning line and in the Purkinje image region. For example, the distance feature amount calculation unit 26 sets a pixel whose luminance value is equal to or greater than a threshold as a saturated pixel. The threshold value is set to the maximum value of the luminance value or a value slightly smaller than the maximum value, for example, any one of 240 to 255.
The distance feature amount extraction unit 26 passes the number of saturated pixels as the distance feature amount to the distance estimation unit 27 when the line-of-sight detection process is executed. On the other hand, the distance feature amount extraction unit 26 notifies the calibration unit 29 of the number of saturated pixels as the distance feature amount when the calibration process is executed.
According to the modification, the distance feature amount extraction unit 26 may calculate the total number of saturated pixels included in the Purkinje image region as the distance feature amount.

距離推定部27は、メモリ3に記憶された距離参照テーブルを参照して、距離特徴量である飽和画素数に対応する被写体距離を求め、その被写体距離を注視位置検出部28へ通知する。注視位置検出部28は、被写体距離及び視線検出部25により求められた視線方向に基づいて、表示画面上の注視位置を求める。このように、この実施形態では、距離参照テーブルは、飽和画素数と被写体距離との対応関係を表す。
また、キャリブレーション部29は、様々な指定距離における飽和画素数を距離特徴量抽出部26から受け取る。そしてキャリブレーション部29は、各指定距離とその指定距離における飽和画素数を対応付けるように距離参照テーブルを更新する。
The distance estimation unit 27 refers to the distance reference table stored in the memory 3 to obtain a subject distance corresponding to the number of saturated pixels that is the distance feature amount, and notifies the gaze position detection unit 28 of the subject distance. The gaze position detection unit 28 obtains a gaze position on the display screen based on the subject distance and the gaze direction obtained by the gaze detection unit 25. Thus, in this embodiment, the distance reference table represents the correspondence between the number of saturated pixels and the subject distance.
Further, the calibration unit 29 receives the number of saturated pixels at various designated distances from the distance feature amount extraction unit 26. Then, the calibration unit 29 updates the distance reference table so that each designated distance is associated with the number of saturated pixels at the designated distance.

以上に説明してきたように、第2の実施形態による視線検出装置は、高精度で検出可能な画像上のプルキンエ像の領域内で、被写体距離の変化による変動幅が相対的に大きい飽和画素数を距離特徴量として求める。そのため、この第2の実施形態による視線検出装置は、被写体距離を正確に推定できる。したがって、この第2の実施形態による視線検出装置は、正確に注視位置を求めることができる。   As described above, the line-of-sight detection device according to the second embodiment has a saturated pixel number that has a relatively large variation range due to a change in the subject distance within the Purkinje image region on the image that can be detected with high accuracy. As a distance feature quantity. Therefore, the visual line detection device according to the second embodiment can accurately estimate the subject distance. Therefore, the visual axis detection device according to the second embodiment can accurately determine the gaze position.

次に、第3の実施形態による視線検出装置について説明する。第3の実施形態による視線検出装置は、所定距離だけ離して配置された少なくとも二つの光源を有し、画像上の各光源に対応するプルキンエ像間の距離を距離特徴量として求める。   Next, a gaze detection apparatus according to the third embodiment will be described. The line-of-sight detection device according to the third embodiment has at least two light sources arranged at a predetermined distance, and obtains the distance between Purkinje images corresponding to each light source on the image as a distance feature amount.

第3の実施形態による視線検出装置は、第1の実施形態による視線検出装置と比較して、光源の数が複数であること、及び制御部の距離特徴量抽出部の処理が異なる。そこで、以下では、光源、距離特徴量抽出部及びその関連部分について説明する。またこの実施形態についても、視線検出装置は携帯端末に搭載されるものとする。視線検出装置のその他の部分及び視線検出装置が搭載された携帯端末に関しては、第1の実施形態に関する関連部分の説明を参照されたい。   The line-of-sight detection apparatus according to the third embodiment differs from the line-of-sight detection apparatus according to the first embodiment in that the number of light sources is plural and the processing of the distance feature quantity extraction unit of the control unit is different. Therefore, in the following, the light source, the distance feature amount extraction unit, and the related portions will be described. Also in this embodiment, the line-of-sight detection device is mounted on a portable terminal. For the other parts of the line-of-sight detection device and the portable terminal on which the line-of-sight detection device is mounted, refer to the description of the related parts relating to the first embodiment.

図11は、第3の実施形態による視線検出装置が搭載された携帯端末1の概略正面図である。図11に示されるように、この実施形態では、ユーザインターフェース2の表示画面2aの上端近傍に第1の光源11−1を備え、表示画面2aの下端近傍に第2の光源11−2を備える。なお、光源の配置はこの例に限られず、例えば、一つの光源が表示画面2aの左端近傍に配置され、他の一つの光源が表示画面2aの右端近傍に配置されてもよい。あるいは、3個以上の光源が表示画面2aの周囲に配置されてもよい。ただし、画像上でプルキンエ像間の距離が大きくなるように、各光源間の距離はできるだけ離れるように、各光源が配置されることが好ましい。   FIG. 11 is a schematic front view of the mobile terminal 1 on which the line-of-sight detection device according to the third embodiment is mounted. As shown in FIG. 11, in this embodiment, the first light source 11-1 is provided near the upper end of the display screen 2a of the user interface 2, and the second light source 11-2 is provided near the lower end of the display screen 2a. . The arrangement of the light sources is not limited to this example. For example, one light source may be arranged near the left end of the display screen 2a and the other one light source may be arranged near the right end of the display screen 2a. Alternatively, three or more light sources may be arranged around the display screen 2a. However, it is preferable that the light sources are arranged so that the distances between the light sources are as far as possible so that the distance between Purkinje images on the image is increased.

人の角膜は、略球面状に形成されているので、凸面鏡として機能する。そのため、被写体距離が大きくなるほど、画像上での複数の光源のそれぞれに対応するプルキンエ像間の距離は小さくなる。   Since the human cornea is formed in a substantially spherical shape, it functions as a convex mirror. Therefore, as the subject distance increases, the distance between Purkinje images corresponding to each of the plurality of light sources on the image decreases.

図12は、画像上での表示画面2aを挟んで上下方向に並べて配置された二つの光源のプルキンエ像間の間隔と被写体距離との関係の実験結果を表すグラフである。図12において、横軸は被写体距離を表し、縦軸はプルキンエ像間の間隔(ピクセル単位)を表す。そして各点は、それぞれ、被写体距離200mm〜650mmにおけるプルキンエ像間の間隔を表す。この実験では、縦方向に77mmの長さを持つ表示画面の上端近傍と下端近傍にそれぞれ光源を配置した。そして、1/3.2インチ(水平方向4.73mm、垂直方向3.52mm)の200万画素CMOSセンサと対角方向画角58°を持つ結像光学系を有するカメラにより眼を撮影した画像を用いた。各点に示されるように、プルキンエ像間の間隔は、被写体距離が大きくなるほど小さくなっている。また、点1201に示される、被写体距離が最大(650mm)のときのプルキンエ像間の間隔に対して、点1202に示される、被写体距離が最小(200mm)のときのプルキンエ像間の間隔は15倍以上となる。このように、プルキンエ像間の間隔は被写体距離に応じて大きく変化することが分かる。したがって、画像上のプルキンエ像間の距離は距離特徴量として使用可能である。   FIG. 12 is a graph showing the experimental results of the relationship between the distance between the Purkinje images of two light sources arranged side by side in the vertical direction across the display screen 2a on the image and the subject distance. In FIG. 12, the horizontal axis represents the subject distance, and the vertical axis represents the interval (pixel unit) between Purkinje images. Each point represents an interval between Purkinje images at a subject distance of 200 mm to 650 mm. In this experiment, light sources were placed near the top and bottom edges of a display screen with a length of 77 mm in the vertical direction. Then, an image obtained by photographing an eye with a camera having a 1 / 3.2 inch (horizontal direction 4.73 mm, vertical direction 3.52 mm) 2 million pixel CMOS sensor and an imaging optical system having a diagonal field angle of 58 ° was used. As indicated by each point, the interval between Purkinje images decreases as the subject distance increases. In addition, the interval between Purkinje images when the subject distance is maximum (650 mm) indicated by the point 1201 and the interval between Purkinje images when the subject distance is minimum (200 mm) shown by the point 1202 is 15 More than double. Thus, it can be seen that the interval between Purkinje images varies greatly depending on the subject distance. Therefore, the distance between Purkinje images on the image can be used as a distance feature amount.

そこで、この実施形態による距離特徴量抽出部26は、プルキンエ像検出部24から画像上での各光源のプルキンエ像の重心を表す情報を取得する。そして距離特徴量抽出部26は、プルキンエ像の重心間の距離を求める。
距離特徴量抽出部26は、視線検出処理の実行時には、距離特徴量としてプルキンエ像の重心間の距離を距離推定部27へ渡す。
Therefore, the distance feature quantity extraction unit 26 according to this embodiment acquires information representing the center of gravity of the Purkinje image of each light source on the image from the Purkinje image detection unit 24. Then, the distance feature amount extraction unit 26 obtains the distance between the centers of gravity of the Purkinje images.
The distance feature amount extraction unit 26 passes the distance between the centers of gravity of the Purkinje images to the distance estimation unit 27 as the distance feature amount when the line-of-sight detection process is executed.

距離推定部27は、メモリ3に記憶された距離参照テーブルを参照して、距離特徴量であるプルキンエ像の重心間の距離に対応する被写体距離を求め、その被写体距離を注視位置検出部28へ通知する。またプルキンエ像検出部24は、何れか一方の光源、例えば、上側に配置された光源11−1のプルキンエ像の重心を視線検出部25に通知する。そして視線検出部25は、光源11−1のプルキンエ像の重心位置に基づいてユーザの視線方向を求める。
注視位置検出部28は、被写体距離及び視線検出部25により求められた視線方向に基づいて、表示画面上の注視位置を求める。このように、この実施形態では、距離参照テーブルは、プルキンエ像の重心間の距離と被写体距離との対応関係を表す。
The distance estimation unit 27 refers to the distance reference table stored in the memory 3 to obtain a subject distance corresponding to the distance between the centroids of the Purkinje image, which is a distance feature quantity, and sends the subject distance to the gaze position detection unit 28. Notice. In addition, the Purkinje image detection unit 24 notifies the line-of-sight detection unit 25 of the center of gravity of the Purkinje image of any one of the light sources, for example, the light source 11-1 disposed on the upper side. The line-of-sight detection unit 25 obtains the user's line-of-sight direction based on the position of the center of gravity of the Purkinje image of the light source 11-1.
The gaze position detection unit 28 obtains a gaze position on the display screen based on the subject distance and the gaze direction obtained by the gaze detection unit 25. Thus, in this embodiment, the distance reference table represents the correspondence between the distance between the centers of gravity of the Purkinje images and the subject distance.

この実施形態では、キャリブレーション部29は、キャリブレーション処理において距離参照テーブルを更新しなくてもよい。画像上でのプルキンエ像間の間隔は、被写体距離の他、光源間の距離、カメラの画角及びイメージセンサの画素数及び角膜の曲率半径により決定される。そして被写体距離と角膜の曲率半径以外は、既知であり、かつ、成人であれば角膜の曲率半径はほぼ一定であるとみなせる。そのため、一般的な角膜のモデルに基づいて、プルキンエ像間の距離と被写体距離との対応関係は予め求められるためである。
なお、他の実施形態と同様に、キャリブレーション部29は、距離参照テーブルを更新してもよい。この場合、キャリブレーション部29は、様々な指定距離における、画像上でのプルキンエ像間の距離を距離特徴量抽出部26から受け取る。そしてキャリブレーション部29は、各指定距離とその指定距離におけるプルキンエ像間の距離を対応付けるように距離参照テーブルを更新する。
In this embodiment, the calibration unit 29 does not have to update the distance reference table in the calibration process. The interval between Purkinje images on the image is determined by the distance between the light sources, the angle of view of the camera, the number of pixels of the image sensor, and the radius of curvature of the cornea in addition to the subject distance. Other than the subject distance and the radius of curvature of the cornea are known, and for an adult, it can be considered that the radius of curvature of the cornea is substantially constant. Therefore, the correspondence between the distance between Purkinje images and the subject distance is obtained in advance based on a general corneal model.
Note that the calibration unit 29 may update the distance reference table as in the other embodiments. In this case, the calibration unit 29 receives distances between Purkinje images on the image at various designated distances from the distance feature amount extraction unit 26. And the calibration part 29 updates a distance reference table so that each designated distance and the distance between Purkinje images in the designated distance may be matched.

以上に説明してきたように、第3の実施形態による視線検出装置は、高精度で検出可能な画像上のプルキンエ像の領域内で、被写体距離の変化による変動幅が相対的に大きい複数の光源のそれぞれに対応するプルキンエ像間の距離を距離特徴量として求める。そのため、この視線検出装置は、被写体距離を正確に推定できる。したがって、この視線検出装置は、正確に注視位置を求めることができる。さらにこの視線検出装置は、距離参照テーブルを更新しなくてもよいので、キャリブレーション処理の実行時におけるユーザの手間を軽減できる。   As described above, the line-of-sight detection device according to the third embodiment includes a plurality of light sources that have a relatively large fluctuation range due to a change in the subject distance within the Purkinje image region on the image that can be detected with high accuracy. The distance between Purkinje images corresponding to each of these is obtained as a distance feature amount. Therefore, this line-of-sight detection device can accurately estimate the subject distance. Therefore, this line-of-sight detection device can accurately determine the gaze position. Furthermore, since this line-of-sight detection apparatus does not need to update the distance reference table, it is possible to reduce the user's trouble at the time of executing the calibration process.

変形例によれば、視線検出装置は、注視位置そのものを求める代わりに、異なる時刻に取得された複数の画像のそれぞれから求めた視線方向の変化量と被写体距離に基づいて注視位置の移動量を求めてもよい。この場合、制御部の視線検出部は、画像から視線方向を求める度に、その画像の取得時刻と視線方向とをメモリに記憶させる。そしてメモリは、一定期間(例えば、10秒間)、その視線方向及び画像の取得時刻を記憶する。また制御部の注視位置検出部は、現時刻に取得された画像から求めた視線方向と、その画像よりも1〜数フレーム前に取得された画像から求めた視線方向との角度差を視線方向の変化量として求める。そして注視位置検出部は、視線方向の角度差の正接に、現画像について求められた被写体距離を乗じることで注視位置の移動量を求める。注視位置検出部は、注視位置の移動量を制御部で実行中のアプリケーションプログラムへ通知する。   According to the modification, instead of obtaining the gaze position itself, the gaze detection device calculates the movement amount of the gaze position based on the amount of change in the gaze direction obtained from each of the plurality of images acquired at different times and the subject distance. You may ask for it. In this case, each time the gaze detection unit of the control unit obtains the gaze direction from the image, the acquisition time and the gaze direction of the image are stored in the memory. The memory stores the line-of-sight direction and the image acquisition time for a certain period (for example, 10 seconds). The gaze position detection unit of the control unit calculates the angle difference between the gaze direction obtained from the image acquired at the current time and the gaze direction obtained from the image acquired one to several frames before the image. As the amount of change. The gaze position detection unit obtains the amount of movement of the gaze position by multiplying the tangent of the angle difference in the line-of-sight direction by the subject distance obtained for the current image. The gaze position detection unit notifies the movement amount of the gaze position to the application program being executed by the control unit.

制御部は、そのアプリケーションプログラムに従って、例えば、注視位置の移動量に応じて画面をスクロールさせる。1〜数フレーム前の画像の取得時から現画像の取得時までの間の視線方向の変化量が同一でも被写体距離が異なれば、注視位置の移動量も異なるので、制御部は、画面のスクロール量またはスクロール速度も変えることが好ましい。例えば、視線方向の変化量が同一でも、被写体距離が2倍になれば注視位置の移動量も2倍になるので、制御部はスクロール量またはスクロール速度も2倍とする。
このように、この視線検出装置は、被写体距離によらず、注視位置の移動量に応じた画面制御を携帯端末の制御部に実行させることができる。
The control unit scrolls the screen according to the amount of movement of the gaze position, for example, according to the application program. Even if the amount of change in the line of sight from the acquisition of the image one to several frames before the acquisition of the current image is the same, if the subject distance is different, the amount of movement of the gaze position is also different, so the control unit scrolls the screen. It is also preferred to change the amount or scroll speed. For example, even if the amount of change in the line-of-sight direction is the same, if the subject distance is doubled, the amount of movement of the gaze position is also doubled, so the control unit also doubles the scroll amount or scroll speed.
In this way, this line-of-sight detection device can cause the control unit of the mobile terminal to perform screen control according to the amount of movement of the gaze position regardless of the subject distance.

次に、第4の実施形態による視線検出装置について説明する。第4の実施形態による視線検出装置は、上下方向に離して配置された少なくとも二つの光源を有し、画像上の各光源に対応するプルキンエ像の飽和画素の数により、視線検出装置に対する垂直方向に沿った顔の傾きを算出する。   Next, a gaze detection apparatus according to the fourth embodiment will be described. The line-of-sight detection device according to the fourth embodiment includes at least two light sources that are spaced apart in the vertical direction, and is perpendicular to the line-of-sight detection device depending on the number of saturated pixels of the Purkinje image corresponding to each light source on the image. The inclination of the face along is calculated.

第4の実施形態による視線検出装置は、第3の実施形態による視線検出装置と比較して、制御部が視線検出装置に対する顔の傾きを検知する点で異なる。そこで、以下では、制御部の顔の傾きの検知及びその関連部分について説明する。またこの実施形態についても、視線検出装置は携帯端末に搭載され、図11に示されるように、表示画面の上端近傍と下端近傍にそれぞれ一つずつ光源が配置されるものとする。視線検出装置のその他の部分及び視線検出装置が搭載された携帯端末に関しては、上記の各実施形態についての関連部分の説明を参照されたい。   The line-of-sight detection device according to the fourth embodiment differs from the line-of-sight detection device according to the third embodiment in that the control unit detects the inclination of the face with respect to the line-of-sight detection device. Therefore, hereinafter, detection of the tilt of the face of the control unit and related parts will be described. Also in this embodiment, it is assumed that the line-of-sight detection device is mounted on a portable terminal, and one light source is disposed near the upper end and the lower end of the display screen as shown in FIG. For the other parts of the line-of-sight detection device and the portable terminal on which the line-of-sight detection device is mounted, refer to the description of the related parts in the above embodiments.

図13は、第4の実施形態による視線検出装置の制御部の機能ブロック図である。制御部4は、光源制御部21と、カメラ制御部22と、顔検出部23と、プルキンエ像検出部24と、視線検出部25と、距離特徴量抽出部26と、距離推定部27と、注視位置検出部28と、キャリブレーション部29と、傾き検出部30とを有する。   FIG. 13 is a functional block diagram of a control unit of the visual line detection device according to the fourth embodiment. The control unit 4 includes a light source control unit 21, a camera control unit 22, a face detection unit 23, a Purkinje image detection unit 24, a line-of-sight detection unit 25, a distance feature quantity extraction unit 26, and a distance estimation unit 27. A gaze position detection unit 28, a calibration unit 29, and an inclination detection unit 30 are included.

本実施形態では、距離特徴量抽出部26は、第1の実施形態のように、画像上での顔の複数の部位間の距離を距離特徴量として抽出する。あるいは、距離特徴量抽出部26は、第3の実施形態のように、画像上での複数の光源のそれぞれに対応するプルキンエ像間の距離を距離特徴量として抽出してもよい。   In the present embodiment, the distance feature amount extraction unit 26 extracts the distance between a plurality of parts of the face on the image as the distance feature amount as in the first embodiment. Or the distance feature-value extraction part 26 may extract the distance between the Purkinje images corresponding to each of the some light source on an image as a distance feature-value like 3rd Embodiment.

傾き検出部30は、携帯端末1に対するユーザの顔の相対的な傾きを検出する。そのために傾き検出部30は、画像上での各光源のプルキンエ像の領域を表す情報をプルキンエ像検出部24から受け取る。そして傾き検出部30は、光源ごとに、プルキンエ像の領域内の飽和画素数をカウントする。なお、飽和画素数のカウントの方法は、第2の実施形態による距離特徴量抽出部による飽和画素数のカウントの方法と同様とすることができる。   The inclination detection unit 30 detects the relative inclination of the user's face with respect to the mobile terminal 1. For this purpose, the inclination detection unit 30 receives information representing the area of the Purkinje image of each light source on the image from the Purkinje image detection unit 24. And the inclination detection part 30 counts the saturation pixel number in the area | region of a Purkinje image for every light source. The method for counting the number of saturated pixels can be the same as the method for counting the number of saturated pixels by the distance feature amount extraction unit according to the second embodiment.

第2の実施形態に関して述べたように、被写体距離が大きくなるほど、プルキンエ像の飽和画素数は少なくなる。そのため、上側の光源11−1のプルキンエ像の飽和画素数が、下側の光源11−2のプルキンエ像の飽和画素数よりも少なければ、上側の光源11−1からユーザの眼までの距離が下側の光源11−2からユーザの眼までの距離よりも大きい。すなわち、ユーザの顔は、携帯端末1の表示画面2aの下端よりも表示画面2aの上端の方がユーザの顔から遠くなるように、携帯端末1に対して傾いている。このことを、便宜上、ユーザの顔が上向きに傾いていると呼ぶ。   As described with respect to the second embodiment, the saturation pixel number of the Purkinje image decreases as the subject distance increases. Therefore, if the number of saturated pixels in the Purkinje image of the upper light source 11-1 is smaller than the number of saturated pixels in the Purkinje image of the lower light source 11-2, the distance from the upper light source 11-1 to the user's eye is small. The distance from the lower light source 11-2 to the user's eyes is larger. That is, the user's face is inclined with respect to the mobile terminal 1 so that the upper end of the display screen 2a is farther from the user's face than the lower end of the display screen 2a of the mobile terminal 1. This is called for convenience that the user's face is tilted upward.

逆に、上側の光源11−1のプルキンエ像の飽和画素数が、下側の光源11−2のプルキンエ像の飽和画素数よりも多ければ、上側の光源11−1からユーザの眼までの距離が下側の光源11−2からユーザの眼までの距離よりも小さい。すなわち、ユーザの顔は、携帯端末1の表示画面2aの上端よりも表示画面2aの下端の方がユーザの顔から遠くなるように、携帯端末1に対して傾いている。このことを、便宜上、ユーザの顔が下向きに傾いていると呼ぶ。
そして上側の光源11−1のプルキンエ像の飽和画素数が下側の光源11−2のプルキンエ像の飽和画素数と略等しければ、表示画面2aとユーザの顔は略平行になっている。
Conversely, if the number of saturated pixels in the Purkinje image of the upper light source 11-1 is larger than the number of saturated pixels in the Purkinje image of the lower light source 11-2, the distance from the upper light source 11-1 to the user's eye. Is smaller than the distance from the lower light source 11-2 to the user's eyes. That is, the user's face is inclined with respect to the mobile terminal 1 so that the lower end of the display screen 2a is farther from the user's face than the upper end of the display screen 2a of the mobile terminal 1. This is called for convenience that the user's face is tilted downward.
If the number of saturated pixels in the Purkinje image of the upper light source 11-1 is substantially equal to the number of saturated pixels in the Purkinje image of the lower light source 11-2, the display screen 2a and the user's face are substantially parallel.

図14は、傾き検出部30による傾き検出処理の動作フローチャートである。制御部4は、傾き検出部30による傾き検出処理を、視線検出処理と別個に実行する。あるいは、制御部4は、図9に示した視線検出処理のステップS211に引き続いて傾き検出処理を実行してもよい。
傾き検出部30は、上側の光源11−1のプルキンエ像の飽和画素数と下側の光源11−2のプルキンエ像の飽和画素数を求める(ステップS301)。そして傾き検出部30は、上側の光源11−1のプルキンエ像の飽和画素数cuと下側の光源11−2のプルキンエ像の飽和画素数clの差を所定数Thと比較する(ステップS302)。そして上側の光源11−1のプルキンエ像の飽和画素数cuが下側の光源11−2のプルキンエ像の飽和画素数clよりも所定数Th以上多ければ、傾き検出部30は、ユーザの顔が下向きに傾いていると判定する(ステップS303)。そして傾き検出部30は、ユーザの顔が下向きに傾いていることを制御部4で実行中のアプリケーションプログラムへ通知する。一方、下側の光源11−2のプルキンエ像の飽和画素数clが上側の光源11−1のプルキンエ像の飽和画素数cuよりも所定数Th以上多ければ、傾き検出部30は、ユーザの顔が上向きに傾いていると判定する(ステップS304)。そして傾き検出部30は、ユーザの顔が上向きに傾いていることを制御部4で実行中のアプリケーションプログラムへ通知する。また二つの光源のプルキンエ像の飽和画素数の差の絶対値|cu-cl|が所定値Th未満であれば、傾き検出部30は、ユーザの顔が携帯端末1の表示画面と略平行になっていると判定する(ステップS305)。そして傾き検出部30は、ユーザの顔が携帯端末1の表示画面と略平行になっていることを制御部4で実行中のアプリケーションプログラムへ通知する。ステップS303〜S305の後、傾き検出部30は傾き検出処理を終了する。なお、所定数Thは、例えば、実験あるいはシミュレーションにより求められ、例えば、'1'に設定される。
FIG. 14 is an operation flowchart of the inclination detection processing by the inclination detection unit 30. The control unit 4 executes the tilt detection process by the tilt detection unit 30 separately from the line-of-sight detection process. Or the control part 4 may perform an inclination detection process following step S211 of the gaze detection process shown in FIG.
The inclination detection unit 30 calculates the number of saturated pixels of the Purkinje image of the upper light source 11-1 and the number of saturated pixels of the Purkinje image of the lower light source 11-2 (step S301). Then, the inclination detector 30 compares the difference between the saturation pixel number cu of the Purkinje image of the upper light source 11-1 and the saturation pixel number cl of the Purkinje image of the lower light source 11-2 with a predetermined number Th (step S302). . If the saturation pixel number cu of the Purkinje image of the upper light source 11-1 is larger than the saturation pixel number cl of the Purkinje image of the lower light source 11-2 by a predetermined number Th or more, the inclination detecting unit 30 has the user's face. It determines with inclining downward (step S303). Then, the tilt detection unit 30 notifies the application program being executed by the control unit 4 that the user's face is tilted downward. On the other hand, if the saturation pixel number cl of the Purkinje image of the lower light source 11-2 is greater than the saturation pixel number cu of the Purkinje image of the upper light source 11-1, the inclination detection unit 30 determines that the face of the user Is tilted upward (step S304). Then, the tilt detection unit 30 notifies the application program being executed by the control unit 4 that the user's face is tilted upward. If the absolute value | cu-cl | of the difference between the saturation pixel numbers of the Purkinje images of the two light sources is less than the predetermined value Th, the inclination detection unit 30 causes the user's face to be substantially parallel to the display screen of the mobile terminal 1. (Step S305). Then, the tilt detection unit 30 notifies the application program being executed by the control unit 4 that the user's face is substantially parallel to the display screen of the mobile terminal 1. After steps S303 to S305, the inclination detection unit 30 ends the inclination detection process. The predetermined number Th is obtained, for example, by experiment or simulation, and is set to “1”, for example.

この場合、制御部4は、アプリケーションプログラムに従って、例えば、上記の変形例のように、ユーザの注視位置の移動量に応じて画面をスクロールさせる。その際、制御部4は、視線が表示画面2aの上側へ向けて移動した場合と、下側へ向けて視線が移動した場合とで、スクロール量またはスクロール速度が一定となるように、ユーザの顔向きに応じてスクロール量またはスクロール速度を調節することが好ましい。例えば、制御部4は、ユーザの顔が上向きである場合、ユーザが注視位置を表示画面2aの略中央から上方へ移動させたときの画面のスクロール量を、表示画面2aの略中央から下方へ移動させたときの画面のスクロール量よりも大きくする。また、ユーザの顔が表示画面2aと略平行である場合、制御部4は、ユーザが注視位置を表示画面2aの略中央から上方へ移動させたときと、表示画面2aの略中央から下方へ移動させたときとで、画面のスクロール量またはスクロール速度を等しくする。   In this case, the control unit 4 scrolls the screen according to the movement amount of the user's gaze position according to the application program, for example, as in the above modification. At that time, the control unit 4 controls the user so that the scroll amount or the scroll speed is constant when the line of sight moves toward the upper side of the display screen 2a and when the line of sight moves toward the lower side. It is preferable to adjust the scroll amount or the scroll speed according to the face orientation. For example, when the user's face is facing upward, the control unit 4 decreases the screen scroll amount when the user moves the gaze position upward from the approximate center of the display screen 2a from the approximate center of the display screen 2a. Make it larger than the scroll amount of the screen when moved. When the user's face is substantially parallel to the display screen 2a, the control unit 4 moves the gaze position upward from the approximate center of the display screen 2a and downward from the approximate center of the display screen 2a. The scroll amount or scroll speed of the screen is made equal when moved.

また変形例によれば、携帯端末がジャイロセンサといった角速度を検知できるセンサを搭載している場合、制御部は、そのセンサから携帯端末の角速度を表す情報を取得する。そして傾き検出部は、その角速度に基づいて、携帯端末の表示画面に対するユーザの顔の傾きを求めてもよい。例えば、携帯端末の表示画面とユーザの顔が略平行であると判定されているときに、制御部が、ジャイロセンサから携帯端末の上端が背面側へ倒れ、携帯端末の下端が正面側、すなわちユーザ側に倒れる方向の角速度が検知されたことを通知されたとする。この場合、傾き検出部は、ユーザの顔向きは上向きであると判定する。   According to the modification, when the mobile terminal is equipped with a sensor that can detect angular velocity such as a gyro sensor, the control unit acquires information representing the angular velocity of the mobile terminal from the sensor. Then, the tilt detection unit may obtain the tilt of the user's face with respect to the display screen of the mobile terminal based on the angular velocity. For example, when it is determined that the display screen of the mobile terminal and the user's face are substantially parallel, the control unit falls from the gyro sensor to the rear side of the upper end of the mobile terminal, and the lower end of the mobile terminal is the front side, that is, It is assumed that the user is notified that the angular velocity in the direction of falling is detected. In this case, the inclination detection unit determines that the user's face direction is upward.

また、傾き検出部は、水平方向についても携帯端末の表示画面に対するユーザの顔の傾きを判定してもよい。この場合、携帯端末の正面において、水平方向の異なる位置に二つの光源が配置される。例えば、表示画面の右端及び左端に近接して二つの光源が配置される。そして傾き検出部は、画像上での各光源のプルキンエ像の飽和画素数を求め、光源ごとの飽和画素数を比較する。向かって右側の光源の飽和画素数が向かって左側の光源の飽和画素数よりも多ければ、傾き検出部は、ユーザの顔は、水平方向に沿って、左側ほど携帯端末の表示画面から離れるように傾いていると判定する。逆に、向かって左側の光源の飽和画素数が向かって右側の光源の飽和画素数よりも多ければ、傾き検出部は、ユーザの顔は、水平方向に沿って、右側ほど携帯端末の表示画面から離れるように傾いていると判定する。   Further, the tilt detection unit may determine the tilt of the user's face with respect to the display screen of the mobile terminal in the horizontal direction. In this case, two light sources are arranged at different positions in the horizontal direction on the front surface of the mobile terminal. For example, two light sources are arranged close to the right end and the left end of the display screen. Then, the inclination detector obtains the number of saturated pixels of the Purkinje image of each light source on the image, and compares the number of saturated pixels for each light source. If the number of saturated pixels of the right light source is larger than the number of saturated pixels of the left light source, the inclination detection unit causes the user's face to move away from the display screen of the mobile terminal toward the left side in the horizontal direction. It is judged that it is leaning to. Conversely, if the number of saturated pixels of the light source on the left side is larger than the number of saturated pixels on the right side of the light source, the tilt detection unit displays the display screen of the mobile terminal toward the right side of the user's face along the horizontal direction. It is determined that it is tilted away from it.

さらに他の変形例によれば、表示画面の4個の角のそれぞれの近傍に光源が配置されてもよい。この場合、傾き検出部は、垂直方向に沿ったユーザの顔の傾きを検出するために、画像上で、上側の二つの光源に対応する二つのプルキンエ像間の距離と、下側の二つの光源に対応する二つのプルキンエ像間の距離とをそれぞれ求める。そして、上側の二つの光源に対応する二つのプルキンエ像間の距離が下側の二つの光源に対応する二つのプルキンエ像間の距離よりも大きければ、傾き検出部はユーザの顔は下向きであると判定する。逆に、下側の二つの光源に対応する二つのプルキンエ像間の距離が上側の二つの光源に対応する二つのプルキンエ像間の距離よりも大きければ、傾き検出部はユーザの顔は上向きであると判定する。
同様に、傾き検出部は、水平方向に沿ったユーザの顔の傾きを検出するために、画像上で、向かって左側の二つの光源に対応する二つのプルキンエ像間の距離と、向かって右側の二つの光源に対応する二つのプルキンエ像間の距離とをそれぞれ求めてもよい。例えば、向かって右側の二つの光源に対応する二つのプルキンエ像間の距離が向かって左側の二つの光源に対応する二つのプルキンエ像間の距離よりも大きければ、傾き検出部は、ユーザの顔は、左側ほど携帯端末の表示画面から離れるように傾いていると判定する。
According to still another modification, a light source may be arranged in the vicinity of each of the four corners of the display screen. In this case, in order to detect the inclination of the user's face along the vertical direction, the inclination detection unit, on the image, the distance between the two Purkinje images corresponding to the upper two light sources, and the lower two The distance between two Purkinje images corresponding to the light source is obtained. If the distance between the two Purkinje images corresponding to the upper two light sources is larger than the distance between the two Purkinje images corresponding to the lower two light sources, the inclination detecting unit faces the user downward. Is determined. Conversely, if the distance between the two Purkinje images corresponding to the two lower light sources is larger than the distance between the two Purkinje images corresponding to the two upper light sources, the tilt detection unit will face the user upward. Judge that there is.
Similarly, in order to detect the inclination of the user's face along the horizontal direction, the inclination detector detects the distance between the two Purkinje images corresponding to the two light sources on the left side and the right side on the image. And the distance between two Purkinje images corresponding to the two light sources. For example, if the distance between the two Purkinje images corresponding to the two light sources on the right side is larger than the distance between the two Purkinje images corresponding to the two light sources on the left side, the inclination detecting unit Determines that the left side is tilted away from the display screen of the mobile terminal.

上記の各実施形態または変形例による視線検出装置は、表示部上のユーザの注視位置を利用する様々な装置に組み込むことができる。例えば、視線検出装置は、カーナビゲーションシステム、あるいはコンピュータに組み込まれてもよい。この場合、視線検出装置が有する光源及びカメラと表示部とは別個に配置されていてもよい。   The line-of-sight detection device according to each of the above-described embodiments or modifications can be incorporated into various devices that use the user's gaze position on the display unit. For example, the line-of-sight detection device may be incorporated in a car navigation system or a computer. In this case, the light source and camera included in the line-of-sight detection device and the display unit may be arranged separately.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
ユーザの眼を照射する光源と、
前記光源が点灯している間に、前記眼を含む領域であって、前記ユーザの顔の少なくとも一部の領域を撮影した画像を生成する撮像部と、
表示部から前記顔までの距離と、該距離に応じて変化する前記画像上での距離特徴量との関係を表す距離情報を記憶する記憶部と、
前記画像から前記距離特徴量を求める距離特徴量抽出部と、
前記距離情報を参照することにより前記距離特徴量に対応する前記表示部から前記顔までの距離を推定する距離推定部と、
前記画像に含まれる前記眼を含む領域から、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出するプルキンエ像検出部と、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する視線検出部と、
前記視線方向と前記表示部から前記顔までの距離に基づいて、前記表示部上の前記ユーザの注視位置を求める注視位置検出部と、
を有する視線検出装置。
(付記2)
前記距離特徴量抽出部は、前記画像上の前記顔の少なくとも二つの部位の位置を求め、当該少なくとも二つの部位間の間隔を前記距離特徴量として求める、付記1に記載の視線検出装置。
(付記3)
前記距離特徴量抽出部は、前記画像上の前記角膜反射像のサイズを前記距離特徴量として求める、付記1に記載の視線検出装置。
(付記4)
前記距離特徴量抽出部は、前記画像上の前記角膜反射像に相当する領域に含まれる、輝度値が飽和した画素の数を前記角膜反射像のサイズとする、付記3に記載の視線検出装置。
(付記5)
前記光源は、互いに異なる位置に配置された第1の発光素子と第2の発光素子とを有し、
前記プルキンエ像検出部は、前記角膜反射像として、前記画像上の前記第1の発光素子の第1の角膜反射像と前記第2の発光素子の第2の角膜反射像を検出し、
前記距離特徴量抽出部は、前記画像上の前記第1の角膜反射像と前記第2の角膜反射像間の間隔を前記距離特徴量として求める、付記1に記載の視線検出装置。
(付記6)
前記第1の発光素子と前記第2の発光素子は、所定方向に沿って配置され、
前記第1の角膜反射像のサイズと前記第2の角膜反射像のサイズを求め、前記第1の角膜反射像のサイズよりも前記第2の角膜反射像のサイズが小さい場合に、前記第1の発光素子と前記顔との距離が、前記第2の発光素子と該顔との距離よりも小さくなる方向に、前記顔が前記表示部に対して傾いていると判定する傾き検出部をさらに有する、付記5に記載の視線検出装置。
(付記7)
前記光源は、前記表示部の外周に沿って互いに異なる位置に配置された少なくとも4個の発光素子を有し、前記発光素子のうちの第1の発光素子及び第2の発光素子は、前記表示部の垂直方向の中心よりも上側に配置され、一方、前記発光素子のうちの第3の発光素子及び第4の発光素子は、前記表示部の垂直方向の中心よりも下側に配置され、
前記プルキンエ像検出部は、前記角膜反射像として、前記画像上の前記第1〜第4の発光素子の角膜反射像をそれぞれ検出し、
前記画像上の前記第1の発光素子の角膜反射像と前記第2の発光素子の角膜反射像間の第1の間隔及び前記第3の発光素子の角膜反射像と前記第4の発光素子の角膜反射像間の第2の間隔をそれぞれ求め、前記第2の間隔よりも前記第1の間隔が小さい場合に、前記表示部の下端が前記表示部の上端よりもユーザの顔に近くなる方向に、前記顔が前記表示部に対して傾いていると判定する傾き検出部をさらに有する、付記1に記載の視線検出装置。
(付記8)
表示部と、
ユーザの眼を照明する光源と、
前記光源が点灯している間に、前記眼を含む領域であって、前記ユーザの顔の少なくとも一部の領域を撮影した画像を生成する撮像部と、
前記表示部から前記顔までの距離と、該距離に応じて変化する前記画像上での距離特徴量との関係を表す距離情報を記憶する記憶部と、
前記画像から前記距離特徴量を求める距離特徴量抽出部と、
前記距離情報を参照することにより前記距離特徴量に対応する前記表示部から前記顔までの距離を推定する距離推定部と、
前記画像に含まれる前記眼を含む領域から、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出するプルキンエ像検出部と、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する視線検出部と、
前記視線方向と前記表示部から前記顔までの距離に基づいて、前記表示部上の前記ユーザの注視位置を求める注視位置検出部と、
前記注視位置と関連付けられた処理を実行するアプリケーション実行部と、
を有する携帯端末。
(付記9)
ユーザの眼を照射する光源が点灯している間に、前記眼を含む領域であって、前記ユーザの顔の少なくとも一部の領域を撮影した画像を生成し、
前記画像から、表示部から前記顔までの距離に応じて変化する前記画像上での距離特徴量を求め、
前記表示部から前記顔までの距離と前記距離特徴量との関係を表す距離情報を参照することにより前記距離特徴量に対応する前記表示部から前記顔までの距離を推定し、
前記画像に含まれる前記眼を含む領域から、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、
前記視線方向と前記表示部から前記顔までの距離に基づいて、前記表示部上の前記ユーザの注視位置を求める、
ことを含む視線検出方法。
(付記10)
ユーザの眼を照射する光源が点灯している間に、前記眼を含む領域であって、前記ユーザの顔の少なくとも一部の領域を撮影した画像を撮像部から取得し、
前記画像から、表示部から前記顔までの距離に応じて変化する前記画像上での距離特徴量を求め、
前記表示部から前記顔までの距離と前記距離特徴量との関係を表す距離情報を参照することにより前記距離特徴量に対応する前記表示部から前記顔までの距離を推定し、
前記画像に含まれる前記眼を含む領域から、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、
前記視線方向と前記表示部から前記顔までの距離に基づいて、前記表示部上の前記ユーザの注視位置を求める、
ことをコンピュータに実行させる視線検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A light source that illuminates the user's eyes;
An imaging unit that generates an image in which at least a part of the user's face is captured in an area including the eyes while the light source is lit;
A storage unit for storing distance information representing a relationship between a distance from the display unit to the face and a distance feature amount on the image that changes according to the distance;
A distance feature amount extraction unit for obtaining the distance feature amount from the image;
A distance estimation unit that estimates a distance from the display unit corresponding to the distance feature amount to the face by referring to the distance information;
Purkinje image detection unit for detecting a cornea reflection image of the light source and a pupil center of gravity of the user from a region including the eye included in the image,
A line-of-sight detection unit that detects the direction of the line of sight of the user according to the positional relationship between the pupil center of gravity and the corneal reflection image;
A gaze position detection unit for obtaining a gaze position of the user on the display unit based on the line-of-sight direction and the distance from the display unit to the face;
A line-of-sight detection apparatus comprising:
(Appendix 2)
The line-of-sight detection apparatus according to appendix 1, wherein the distance feature quantity extraction unit obtains positions of at least two parts of the face on the image and obtains an interval between the at least two parts as the distance feature quantity.
(Appendix 3)
The line-of-sight detection device according to appendix 1, wherein the distance feature quantity extraction unit obtains the size of the corneal reflection image on the image as the distance feature quantity.
(Appendix 4)
The line-of-sight detection device according to appendix 3, wherein the distance feature quantity extraction unit uses the number of pixels with saturated luminance values included in a region corresponding to the corneal reflection image on the image as the size of the corneal reflection image. .
(Appendix 5)
The light source includes a first light emitting element and a second light emitting element arranged at different positions,
The Purkinje image detection unit detects, as the cornea reflection image, a first cornea reflection image of the first light emitting element and a second cornea reflection image of the second light emitting element on the image,
The line-of-sight detection device according to appendix 1, wherein the distance feature quantity extraction unit obtains an interval between the first corneal reflection image and the second corneal reflection image on the image as the distance feature quantity.
(Appendix 6)
The first light emitting element and the second light emitting element are disposed along a predetermined direction,
The size of the first corneal reflection image and the size of the second corneal reflection image are obtained, and when the size of the second corneal reflection image is smaller than the size of the first corneal reflection image, An inclination detecting unit that determines that the face is inclined with respect to the display unit in a direction in which a distance between the light emitting element and the face is smaller than a distance between the second light emitting element and the face; The line-of-sight detection device according to appendix 5.
(Appendix 7)
The light source has at least four light emitting elements arranged at different positions along the outer periphery of the display unit, and the first light emitting element and the second light emitting element among the light emitting elements are the display The third light emitting element and the fourth light emitting element of the light emitting elements are disposed below the vertical center of the display unit,
The Purkinje image detection unit detects the cornea reflection images of the first to fourth light emitting elements on the image as the cornea reflection image,
A first interval between the cornea reflection image of the first light emitting element and the cornea reflection image of the second light emitting element on the image, and a cornea reflection image of the third light emitting element and the fourth light emitting element. A direction in which the lower end of the display unit is closer to the user's face than the upper end of the display unit when the second interval between the cornea reflection images is obtained and the first interval is smaller than the second interval. The line-of-sight detection device according to appendix 1, further comprising an inclination detection unit that determines that the face is inclined with respect to the display unit.
(Appendix 8)
A display unit;
A light source that illuminates the user's eyes;
An imaging unit that generates an image in which at least a part of the user's face is captured in an area including the eyes while the light source is lit;
A storage unit that stores distance information representing a relationship between a distance from the display unit to the face and a distance feature amount on the image that changes according to the distance;
A distance feature amount extraction unit for obtaining the distance feature amount from the image;
A distance estimation unit that estimates a distance from the display unit corresponding to the distance feature amount to the face by referring to the distance information;
Purkinje image detection unit for detecting a cornea reflection image of the light source and a pupil center of gravity of the user from a region including the eye included in the image,
A line-of-sight detection unit that detects the direction of the line of sight of the user according to the positional relationship between the pupil center of gravity and the corneal reflection image;
A gaze position detection unit for obtaining a gaze position of the user on the display unit based on the line-of-sight direction and the distance from the display unit to the face;
An application execution unit that executes processing associated with the gaze position;
A mobile terminal.
(Appendix 9)
While the light source that illuminates the user's eyes is turned on, an image including at least a part of the user's face that is an area including the eyes is generated;
From the image, a distance feature amount on the image that changes according to the distance from the display unit to the face is obtained,
Estimating a distance from the display unit corresponding to the distance feature amount to the face by referring to distance information representing a relationship between a distance from the display unit to the face and the distance feature amount;
From a region including the eye included in the image, a cornea reflection image of the light source and a pupil center of gravity of the user are detected,
Detecting the user's line-of-sight direction according to the positional relationship between the pupil center of gravity and the corneal reflection image;
Obtaining the gaze position of the user on the display unit based on the line-of-sight direction and the distance from the display unit to the face;
A gaze detection method including the above.
(Appendix 10)
While the light source that illuminates the user's eyes is turned on, an image obtained by capturing an image of at least a part of the user's face, which is an area including the eyes, is acquired from the imaging unit.
From the image, a distance feature amount on the image that changes according to the distance from the display unit to the face is obtained,
Estimating a distance from the display unit corresponding to the distance feature amount to the face by referring to distance information representing a relationship between a distance from the display unit to the face and the distance feature amount;
From a region including the eye included in the image, a cornea reflection image of the light source and a pupil center of gravity of the user are detected,
Detecting the user's line-of-sight direction according to the positional relationship between the pupil center of gravity and the corneal reflection image;
Obtaining the gaze position of the user on the display unit based on the line-of-sight direction and the distance from the display unit to the face;
A computer program for eye-gaze detection that causes a computer to execute the above.

1 携帯端末
2 ユーザインターフェース
2a 表示画面
3 メモリ
4 制御部
5 筺体
10 視線検出装置
11、11−1〜11−2 光源
12 カメラ
21 光源制御部
22 カメラ制御部
23 顔検出部
24 プルキンエ像検出部
25 視線検出部
26 距離特徴量抽出部
27 距離推定部
28 注視位置検出部
29 キャリブレーション部
30 傾き検出部
DESCRIPTION OF SYMBOLS 1 Mobile terminal 2 User interface 2a Display screen 3 Memory 4 Control part 5 Chassis 10 Eye-gaze detection apparatus 11, 11-1 to 11-2 Light source 12 Camera 21 Light source control part 22 Camera control part 23 Face detection part 24 Purkinje image detection part 25 Gaze detection unit 26 Distance feature amount extraction unit 27 Distance estimation unit 28 Gaze position detection unit 29 Calibration unit 30 Tilt detection unit

Claims (6)

ユーザの眼を照射する光源と、
前記光源が点灯している間に、前記眼を含む領域であって、前記ユーザの顔の少なくとも一部の領域を撮影した画像を生成する撮像部と、
表示部から前記顔までの距離と、該距離に応じて変化する前記画像上での距離特徴量との関係を表す距離情報を記憶する記憶部と、
前記画像から前記距離特徴量を求める距離特徴量抽出部と、
前記距離情報を参照することにより前記距離特徴量に対応する前記表示部から前記顔までの距離を推定する距離推定部と、
前記画像に含まれる前記眼を含む領域から、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出するプルキンエ像検出部と、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する視線検出部と、
前記視線方向と前記表示部から前記顔までの距離に基づいて、前記表示部上の前記ユーザの注視位置を求める注視位置検出部と、
を有する視線検出装置。
A light source that illuminates the user's eyes;
An imaging unit that generates an image in which at least a part of the user's face is captured in an area including the eyes while the light source is lit;
A storage unit for storing distance information representing a relationship between a distance from the display unit to the face and a distance feature amount on the image that changes according to the distance;
A distance feature amount extraction unit for obtaining the distance feature amount from the image;
A distance estimation unit that estimates a distance from the display unit corresponding to the distance feature amount to the face by referring to the distance information;
Purkinje image detection unit for detecting a cornea reflection image of the light source and a pupil center of gravity of the user from a region including the eye included in the image,
A line-of-sight detection unit that detects the direction of the line of sight of the user according to the positional relationship between the pupil center of gravity and the corneal reflection image;
A gaze position detection unit for obtaining a gaze position of the user on the display unit based on the line-of-sight direction and the distance from the display unit to the face;
A line-of-sight detection apparatus comprising:
前記距離特徴量抽出部は、前記画像上の前記顔の少なくとも二つの部位の位置を求め、当該少なくとも二つの部位間の間隔を前記距離特徴量として求める、請求項1に記載の視線検出装置。   The line-of-sight detection device according to claim 1, wherein the distance feature quantity extraction unit obtains positions of at least two parts of the face on the image and obtains an interval between the at least two parts as the distance feature quantity. 前記距離特徴量抽出部は、前記画像上の前記角膜反射像のサイズを前記距離特徴量として求める、請求項1に記載の視線検出装置。   The line-of-sight detection device according to claim 1, wherein the distance feature amount extraction unit obtains the size of the corneal reflection image on the image as the distance feature amount. 前記光源は、互いに異なる位置に配置された第1の発光素子と第2の発光素子とを有し、
前記プルキンエ像検出部は、前記角膜反射像として、前記画像上の前記第1の発光素子の第1の角膜反射像と前記第2の発光素子の第2の角膜反射像を検出し、
前記距離特徴量抽出部は、前記画像上の前記第1の角膜反射像と前記第2の角膜反射像間の間隔を前記距離特徴量として求める、請求項1に記載の視線検出装置。
The light source includes a first light emitting element and a second light emitting element arranged at different positions,
The Purkinje image detection unit detects, as the cornea reflection image, a first cornea reflection image of the first light emitting element and a second cornea reflection image of the second light emitting element on the image,
The line-of-sight detection device according to claim 1, wherein the distance feature quantity extraction unit obtains an interval between the first corneal reflection image and the second corneal reflection image on the image as the distance feature quantity.
前記第1の発光素子と前記第2の発光素子は、所定方向に沿って配置され、
前記第1の角膜反射像のサイズと前記第2の角膜反射像のサイズを求め、前記第1の角膜反射像のサイズよりも前記第2の角膜反射像のサイズが小さい場合に、前記第1の発光素子と前記顔との距離が、前記第2の発光素子と該顔との距離よりも小さくなる方向に、前記顔が前記表示部に対して傾いていると判定する傾き検出部をさらに有する、請求項4に記載の視線検出装置。
The first light emitting element and the second light emitting element are disposed along a predetermined direction,
The size of the first corneal reflection image and the size of the second corneal reflection image are obtained, and when the size of the second corneal reflection image is smaller than the size of the first corneal reflection image, An inclination detecting unit that determines that the face is inclined with respect to the display unit in a direction in which a distance between the light emitting element and the face is smaller than a distance between the second light emitting element and the face; The line-of-sight detection device according to claim 4.
ユーザの眼を照射する光源が点灯している間に、前記眼を含む領域であって、前記ユーザの顔の少なくとも一部の領域を撮影した画像を生成し、
前記画像から、表示部から前記顔までの距離に応じて変化する前記画像上での距離特徴量を求め、
前記表示部から前記顔までの距離と前記距離特徴量との関係を表す距離情報を参照することにより前記距離特徴量に対応する前記表示部から前記顔までの距離を推定し、
前記画像に含まれる前記眼を含む領域から、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、
前記視線方向と前記表示部から前記顔までの距離に基づいて、前記表示部上の前記ユーザの注視位置を求める、
ことを含む視線検出方法。
While the light source that illuminates the user's eyes is turned on, an image including at least a part of the user's face that is an area including the eyes is generated;
From the image, a distance feature amount on the image that changes according to the distance from the display unit to the face is obtained,
Estimating a distance from the display unit corresponding to the distance feature amount to the face by referring to distance information representing a relationship between a distance from the display unit to the face and the distance feature amount;
From a region including the eye included in the image, a cornea reflection image of the light source and a pupil center of gravity of the user are detected,
Detecting the user's line-of-sight direction according to the positional relationship between the pupil center of gravity and the corneal reflection image;
Obtaining the gaze position of the user on the display unit based on the line-of-sight direction and the distance from the display unit to the face;
A gaze detection method including the above.
JP2011051351A 2011-03-09 2011-03-09 Gaze detection apparatus and gaze detection method Expired - Fee Related JP5655644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011051351A JP5655644B2 (en) 2011-03-09 2011-03-09 Gaze detection apparatus and gaze detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011051351A JP5655644B2 (en) 2011-03-09 2011-03-09 Gaze detection apparatus and gaze detection method

Publications (2)

Publication Number Publication Date
JP2012187178A true JP2012187178A (en) 2012-10-04
JP5655644B2 JP5655644B2 (en) 2015-01-21

Family

ID=47081018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011051351A Expired - Fee Related JP5655644B2 (en) 2011-03-09 2011-03-09 Gaze detection apparatus and gaze detection method

Country Status (1)

Country Link
JP (1) JP5655644B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201096A (en) * 2014-04-09 2015-11-12 富士通株式会社 Eye gaze detection apparatus, eye gaze detection program and eye gaze detection method
WO2017203769A1 (en) * 2016-05-23 2017-11-30 アルプス電気株式会社 Sight line detection method
WO2018037641A1 (en) * 2016-08-24 2018-03-01 ソニー株式会社 Information processing device, information processing method, and program
WO2019058641A1 (en) * 2017-09-20 2019-03-28 シャープ株式会社 Electronic apparatus, program, control device, and control method
CN109600508A (en) * 2018-04-10 2019-04-09 吴秋琴 Mobile phone plays failure from checking method
WO2020192900A1 (en) * 2019-03-26 2020-10-01 Haag-Streit Ag Device and method for determining the orientation of an ophthalmologic microscope device
WO2020192899A1 (en) * 2019-03-26 2020-10-01 Haag-Streit Ag Device and method for measuring at least one geometric parameter of the eye
CN112434741A (en) * 2020-11-25 2021-03-02 杭州盛世传奇标识系统有限公司 Method, system, device and storage medium for using interactive introduction identifier
WO2022038814A1 (en) * 2020-08-20 2022-02-24 株式会社Jvcケンウッド Corneal curvature radius calculation device, line-of-sight detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program
CN114615947A (en) * 2019-10-10 2022-06-10 迈迪新球株式会社 Intelligent glasses display device and method based on sight line detection
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148513A (en) * 1992-10-30 1994-05-27 Canon Inc Line-of-sight detector
JPH11249804A (en) * 1998-12-11 1999-09-17 Canon Inc Character using sight line detection, method for inputting code or the like and its device
JP2007136000A (en) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for measuring visual axis
WO2007141857A1 (en) * 2006-06-08 2007-12-13 Olympus Corporation External appearance inspection device
JP2010239583A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program
JP2010259605A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Visual line measuring device and visual line measuring program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148513A (en) * 1992-10-30 1994-05-27 Canon Inc Line-of-sight detector
US5907722A (en) * 1992-10-30 1999-05-25 Canon Kabushiki Kaisha Visual axis detection method
JPH11249804A (en) * 1998-12-11 1999-09-17 Canon Inc Character using sight line detection, method for inputting code or the like and its device
JP2007136000A (en) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for measuring visual axis
WO2007141857A1 (en) * 2006-06-08 2007-12-13 Olympus Corporation External appearance inspection device
JP2010239583A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Communication terminal unit, method of controlling communication of communication terminal unit, and communication control program
JP2010259605A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Visual line measuring device and visual line measuring program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201096A (en) * 2014-04-09 2015-11-12 富士通株式会社 Eye gaze detection apparatus, eye gaze detection program and eye gaze detection method
WO2017203769A1 (en) * 2016-05-23 2017-11-30 アルプス電気株式会社 Sight line detection method
JPWO2017203769A1 (en) * 2016-05-23 2019-04-18 アルプスアルパイン株式会社 Gaze detection method
WO2018037641A1 (en) * 2016-08-24 2018-03-01 ソニー株式会社 Information processing device, information processing method, and program
US11265460B2 (en) * 2017-09-20 2022-03-01 Sharp Kabushiki Kaisha Electronic device, control device, and control method
WO2019058641A1 (en) * 2017-09-20 2019-03-28 シャープ株式会社 Electronic apparatus, program, control device, and control method
CN109600508A (en) * 2018-04-10 2019-04-09 吴秋琴 Mobile phone plays failure from checking method
WO2020192900A1 (en) * 2019-03-26 2020-10-01 Haag-Streit Ag Device and method for determining the orientation of an ophthalmologic microscope device
WO2020192899A1 (en) * 2019-03-26 2020-10-01 Haag-Streit Ag Device and method for measuring at least one geometric parameter of the eye
CN114615947A (en) * 2019-10-10 2022-06-10 迈迪新球株式会社 Intelligent glasses display device and method based on sight line detection
WO2022038814A1 (en) * 2020-08-20 2022-02-24 株式会社Jvcケンウッド Corneal curvature radius calculation device, line-of-sight detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
CN112434741A (en) * 2020-11-25 2021-03-02 杭州盛世传奇标识系统有限公司 Method, system, device and storage medium for using interactive introduction identifier

Also Published As

Publication number Publication date
JP5655644B2 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
JP5655644B2 (en) Gaze detection apparatus and gaze detection method
JP6056323B2 (en) Gaze detection device, computer program for gaze detection
JP5949319B2 (en) Gaze detection apparatus and gaze detection method
EP3453316B1 (en) Eye tracking using eyeball center position
JP5621456B2 (en) Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal
JP6930223B2 (en) Pupil detection computer program, pupil detection device and pupil detection method
JP2017182739A (en) Gaze detection device, gaze detection method and computer program for gaze detection
JP5626039B2 (en) Gaze detection apparatus and gaze detection method
JP6957993B2 (en) Information processing programs, information processing devices, and information processing methods that estimate the level of confidence in the user&#39;s answer.
US20120098852A1 (en) Image display device
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
US11928291B2 (en) Image projection device
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
JP2018205819A (en) Gazing position detection computer program, gazing position detection device, and gazing position detection method
JP5601179B2 (en) Gaze detection apparatus and gaze detection method
JP2016184362A (en) Input device, input operation detection method, and input operation detection computer program
KR100960269B1 (en) Apparatus of estimating user&#39;s gaze and the method thereof
JP2017199148A (en) Visual line detection device, visual line detection method and visual line detection-purpose computer program
JP2018011681A (en) Visual line detection device, visual line detection program, and visual line detection method
JP6575353B2 (en) Gaze detection device, gaze detection method, and computer program for gaze detection
JP2018120299A (en) Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method
KR20140139743A (en) Method for controlling display screen and display apparatus thereof
JP6398755B2 (en) Input device, input method, computer program for input processing, and input system
JP2021039549A (en) Mobile terminal device
JP2021099664A (en) Corneal reflection detecting device, visual line detecting device, corneal reflection detecting method and corneal reflection detecting program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees