JP2017213191A - Sight line detection device, sight line detection method and sight line detection program - Google Patents

Sight line detection device, sight line detection method and sight line detection program Download PDF

Info

Publication number
JP2017213191A
JP2017213191A JP2016109305A JP2016109305A JP2017213191A JP 2017213191 A JP2017213191 A JP 2017213191A JP 2016109305 A JP2016109305 A JP 2016109305A JP 2016109305 A JP2016109305 A JP 2016109305A JP 2017213191 A JP2017213191 A JP 2017213191A
Authority
JP
Japan
Prior art keywords
eyeball
feature
feature amount
line
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016109305A
Other languages
Japanese (ja)
Inventor
隆宏 吉岡
Takahiro Yoshioka
隆宏 吉岡
哲 中島
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016109305A priority Critical patent/JP2017213191A/en
Priority to US15/491,539 priority patent/US20170344110A1/en
Priority to EP17167719.8A priority patent/EP3251584A1/en
Priority to CN201710352566.4A priority patent/CN107440678A/en
Publication of JP2017213191A publication Critical patent/JP2017213191A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a burden applied to a detection object person in calibration in sight line detection.SOLUTION: A sight line detection device comprises a storage part, a feature amount calculation part, a feature amount determination part, and a parameter calculation part. In the storage part, plural eyeball features containing a set of feature amounts of the eyeballs, detected when one gazes each of plural gaze points which are predetermined, from a view point in a positional relationship with a camera, in a mode of being associated with a radius of a cornea. The feature amount calculation part calculates a feature amount of eyeball of a person, based on an image of the person who gazes the first gaze point out of the plural gaze points, acquired from the camera. The feature determination part determines the eyeball feature of the person based on the feature amount of the eyeball corresponding to the first gaze point, out of the plural eyeball features registered in the storage part, and the feature amount of the eyeball of the person. The parameter calculation part calculates a calibration parameter to a sight line of the person, based on the plural eyeball feature amounts included in the determined eyeball feature.SELECTED DRAWING: Figure 1

Description

本発明は、視線検出装置、視線検出方法、及び視線検出プログラムに関する。   The present invention relates to a line-of-sight detection device, a line-of-sight detection method, and a line-of-sight detection program.

人物の視線を検出する視線検出技術は、視線により情報を入力する入力装置や、車両を運転している人物の運転中の視線の記録等に適用されている。視線の検出方法の一つとして、人物の眼球の画像における瞳孔の位置と角膜反射の位置とに基づいて人物の視線を検出する瞳孔−角膜反射法が知られている。   The line-of-sight detection technology for detecting a person's line of sight is applied to an input device that inputs information by line of sight, recording of the line of sight of a person driving a vehicle, and the like. As one of gaze detection methods, a pupil-cornea reflection method is known that detects a gaze of a person based on the position of the pupil and the position of corneal reflection in an image of the human eyeball.

視線検出技術においては、人物の視線を精度良く検出するため、眼球の特徴に基づいて視線の方向を較正する処理(キャリブレーション)が行われる。   In the line-of-sight detection technique, in order to accurately detect the line of sight of a person, a process (calibration) for calibrating the direction of the line of sight based on the characteristics of the eyeball is performed.

瞳孔−角膜反射法におけるキャリブレーションでは、人物に所定の注視点を注視させた状態での瞳孔の位置と角膜反射の位置とに基づいて検出した視線と、当該人物から見た注視点の方向とに基づいて、視線の較正に用いる較正パラメータを算出する。   In the calibration in the pupil-corneal reflection method, the line of sight detected based on the position of the pupil and the position of the corneal reflection in a state in which a person is gazing at a predetermined gazing point, the direction of the gazing point viewed from the person, Based on the above, a calibration parameter used for line-of-sight calibration is calculated.

キャリブレーションを行って較正パラメータを算出する際には、検出対象である人物に複数の注視点を注視させる。   When performing calibration and calculating calibration parameters, a person as a detection target is caused to gaze at a plurality of gazing points.

また、上記の視線検出技術として、複数の観察者に対応して複数のパラメータの組を記憶しておき、現在の観察者における眼球の特徴に基づいて最適なパラメータの組を選択して視線を算出するという技術が知られている(例えば特許文献1を参照)。この種の視線検出技術は、観察者の交代等により検出対象である観察者の眼球の状態が変わっても、これに簡易、迅速かつ正確に対応することを可能にする。   In addition, as the above-described line-of-sight detection technique, a plurality of parameter sets are stored corresponding to a plurality of observers, and an optimal set of parameters is selected based on the characteristics of the eyeball of the current observer, and the line of sight is detected. A technique of calculating is known (see, for example, Patent Document 1). This type of line-of-sight detection technology makes it possible to easily, quickly and accurately respond to changes in the state of the eyeball of the observer that is the detection target due to changes in the observer.

更に、上記の視線検出技術として、初期キャリブレーションを行い視線の検出を開始した後も、動的にキャリブレーションを繰り返すことで、視線の検出精度を高める技術が知られている(例えば、特許文献2を参照)。   Further, as the above-described line-of-sight detection technique, a technique for improving the line-of-sight detection accuracy is known by dynamically repeating calibration even after initial calibration is performed and line-of-sight detection is started (for example, Patent Documents). 2).

特開平07−035966号公報Japanese Patent Application Laid-Open No. 07-035966 特開2000−010723号公報JP 2000-010723 A

キャリブレーションを行って視線に対する較正パラメータを算出する際には、検出対象である人物に複数の注視点(例えば、4〜9点の注視点)を注視させている。すなわち、1回のキャリブレーションにおいて、注視点を指定して人物に注視させ、当該人物が注視点を注視している状態の画像を取得するという処理を複数回行うこととなる。このように複数の注視点を注視させることは、検出対象の人物にとって負担となる。   When calculating calibration parameters for the line of sight by performing calibration, a person who is a detection target is gazes at a plurality of gaze points (for example, 4 to 9 gaze points). That is, in one calibration, a process of specifying a gazing point to cause a person to gaze and acquiring an image in a state where the person is gazing at the gazing point is performed a plurality of times. It is a burden for the person to be detected to gaze at a plurality of gaze points in this way.

1つの側面において、本発明は、視線検出におけるキャリブレーション時の検出対象人物の負担を軽減することを目的とする。   In one aspect, an object of the present invention is to reduce a burden on a detection target person during calibration in line-of-sight detection.

1つの態様では、視線検出装置は、記憶部と、特徴量算出部と、特徴決定部と、パラメータ算出部と、を備える。記憶部には、カメラと所定の位置関係にある視点から予め定めた複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴が角膜半径と対応付ける態様で複数登録されている。特徴量算出部は、カメラから取得した複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、人物の眼球の特徴量を算出する。特徴決定部は、記憶部に登録された複数の眼球特徴のうちの第一の注視点に対応する眼球の特徴量と、算出した人物の眼球の特徴量とに基づいて、人物の眼球特徴を決定する。パラメータ算出部は、決定した眼球特徴に含まれる複数の眼球の特徴量に基づいて、人物の視線に対する較正パラメータを算出する。   In one aspect, the visual line detection device includes a storage unit, a feature amount calculation unit, a feature determination unit, and a parameter calculation unit. In the storage unit, a plurality of eyeball features including a set of eyeball feature amounts detected when each of a plurality of gaze points determined in advance from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius. It is registered. The feature amount calculation unit calculates the feature amount of the eyeball of the person based on the image of the person gazing at the first gazing point among the plurality of gazing points acquired from the camera. The feature determination unit determines the eyeball feature of the person based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features registered in the storage unit and the calculated feature amount of the eyeball of the person. decide. The parameter calculation unit calculates a calibration parameter for the line of sight of the person based on the feature amounts of the plurality of eyeballs included in the determined eyeball feature.

上述の態様によれば、視線検出におけるキャリブレーション時の検出対象人物の負担が軽減される。   According to the above-described aspect, the burden on the person to be detected at the time of calibration in line-of-sight detection is reduced.

第1の実施形態に係る視線検出装置の機能的構成を示す図である。It is a figure which shows the functional structure of the gaze detection apparatus which concerns on 1st Embodiment. 眼球特徴データベースの例を示す図である。It is a figure which shows the example of an eyeball characteristic database. 眼球の特徴量及び瞳孔間距離を説明する図である。It is a figure explaining the feature-value of an eyeball and the distance between pupils. データベース作成装置の機能的構成を示す図である。It is a figure which shows the functional structure of a database preparation apparatus. 第1の実施形態に係る眼球特徴データベースの作成処理を説明するフローチャートである。It is a flowchart explaining the creation process of the eyeball feature database which concerns on 1st Embodiment. 視線検出装置の適用例を示す図である。It is a figure which shows the example of application of a gaze detection apparatus. 眼球特徴データベース作成時の画像の取得方法を説明する図である。It is a figure explaining the acquisition method of the image at the time of eyeball feature database preparation. 第1の実施形態に係る視線検出装置が行う処理を説明するフローチャートである。It is a flowchart explaining the process which the gaze detection apparatus which concerns on 1st Embodiment performs. 第1の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the calibration parameter determination process which concerns on 1st Embodiment. 視線検出処理の内容を説明するフローチャートである。It is a flowchart explaining the content of a gaze detection process. 瞳孔の位置及び角膜反射の位置と角膜半径との相関を説明する図である。It is a figure explaining the correlation with the position of a pupil, the position of corneal reflection, and a corneal radius. 画像上における瞳孔の位置及び角膜反射の位置と角膜半径との相関を説明する図である。It is a figure explaining the correlation with the position of a pupil on an image, the position of corneal reflection, and a corneal radius. 視線検出装置の別の適用例を示す図である。It is a figure which shows another example of application of a gaze detection apparatus. 視線検出システムの変形例を示す図である。It is a figure which shows the modification of a gaze detection system. 第2の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the calibration parameter determination process which concerns on 2nd Embodiment. 眼球の特徴量を補正する処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the process which correct | amends the feature-value of an eyeball. 顔の向きと眼球の特徴量との関係を説明する図である。It is a figure explaining the relationship between the direction of a face, and the feature-value of an eyeball. 顔がカメラと正対していない場合の眼球の特徴量の補正方法を説明する図である。It is a figure explaining the correction method of the feature-value of an eyeball when a face is not facing a camera. 第3の実施形態に係る視線検出装置の機能的構成を示す図である。It is a figure which shows the functional structure of the gaze detection apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る眼球特徴データベースの例を示す図である。It is a figure which shows the example of the eyeball characteristic database which concerns on 3rd Embodiment. 眼球の特徴量及び虹彩半径を説明する図である。It is a figure explaining the feature-value and iris radius of an eyeball. 第3の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the calibration parameter determination process which concerns on 3rd Embodiment. 虹彩半径と眼球形状との相関を説明する図である。It is a figure explaining the correlation with an iris radius and eyeball shape. 第3の実施形態に係る眼球特徴の決定方法の例を説明する図である。It is a figure explaining the example of the determination method of the eyeball feature which concerns on 3rd Embodiment. 第4の実施形態に係る較正パラメータ決定処理における眼球特徴を決定する処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the process which determines the eyeball characteristic in the calibration parameter determination process which concerns on 4th Embodiment. 眼球特徴データベースから抽出される複数のレコードの例を示す図である。It is a figure which shows the example of the some record extracted from an eyeball characteristic database. 特徴量の算出方法を説明する図である。It is a figure explaining the calculation method of the feature-value. コンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a computer.

[第1の実施形態]
図1は、第1の実施形態に係る視線検出装置の機能的構成を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a functional configuration of the visual line detection device according to the first embodiment.

図1に示すように、本実施形態に係る視線検出装置1は、画像取得部101と、注視指示部102と、特徴量算出部103と、処理切替部104と、特徴量補正部105と、特徴決定部106と、パラメータ算出部107と、視線算出部108と、を備える。更に、視線検出装置1は、眼球特徴データベース121と、視線記憶部122と、を備える。本実施形態の視線検出装置1は、瞳孔−角膜反射法により、視線の検出対象である人物(以下、対象人物という)の視線を検出する。   As shown in FIG. 1, the line-of-sight detection device 1 according to the present embodiment includes an image acquisition unit 101, a gaze instruction unit 102, a feature amount calculation unit 103, a process switching unit 104, a feature amount correction unit 105, A feature determination unit 106, a parameter calculation unit 107, and a line-of-sight calculation unit 108 are provided. Furthermore, the line-of-sight detection device 1 includes an eyeball feature database 121 and a line-of-sight storage unit 122. The line-of-sight detection apparatus 1 according to the present embodiment detects the line of sight of a person who is a line-of-sight detection target (hereinafter referred to as a target person) by the pupil-corneal reflection method.

画像取得部101は、赤外線カメラ201で撮像した赤外線画像(以下、単に画像という)を取得する。赤外線カメラ201は、所定の空間領域、或いは所定の表示装置の表示面を観察する対象人物の眼球を含む画像の撮像に用いる撮像装置である。赤外線カメラ201は、例えば、赤外線発光ダイオード(Light Emitting Diode:LED)202等の赤外線を発する光源と組み合わせて用いる。赤外線カメラ201と赤外線LED 202との組(以下、視線センサ2という)において、赤外線LED 202は、赤外線カメラ201の撮像範囲を含む空間に向けて赤外線を発する態様で、赤外線カメラ201の近傍に設置される。赤外線カメラ201は、赤外線LED 202が発した赤外線を照射された対象人物の眼球を含む画像を撮像し、画像取得部101に送信する。   The image acquisition unit 101 acquires an infrared image captured by the infrared camera 201 (hereinafter simply referred to as an image). The infrared camera 201 is an imaging device used for imaging an image including an eyeball of a target person who observes a predetermined spatial region or a display surface of a predetermined display device. The infrared camera 201 is used in combination with a light source that emits infrared rays, such as an infrared light emitting diode (LED) 202. In the set of the infrared camera 201 and the infrared LED 202 (hereinafter referred to as the line-of-sight sensor 2), the infrared LED 202 emits infrared rays toward a space including the imaging range of the infrared camera 201 and is installed in the vicinity of the infrared camera 201. Is done. The infrared camera 201 captures an image including the eyeball of the target person irradiated with infrared rays emitted from the infrared LED 202 and transmits the image to the image acquisition unit 101.

また、視線検出装置1において対象人物の視線を較正する処理(キャリブレーション)を行う場合、画像取得部101は、対象人物に注視点を注視させる処理を注視指示部102に実行させる。なお、本明細書における視線を較正する処理は、対象人物の視線を検出する処理で用いる較正パラメータを決定する処理を意味する。   Further, when performing the process (calibration) of calibrating the line of sight of the target person in the line-of-sight detection device 1, the image acquisition unit 101 causes the gaze instruction unit 102 to execute a process of gazing at the point of interest of the target person. Note that the process of calibrating the line of sight in this specification means a process of determining calibration parameters used in the process of detecting the line of sight of the target person.

画像取得部101は、入力装置3から入力された情報に基づいて、対象人物に注視点を注視させる処理を行うか否かを判定する。入力装置3は、釦スイッチやタッチパネル装置等であり、例えば、視線検出装置1に視線検出処理を開始させる命令、視線のキャリブレーションを実行させる命令等の入力に用いる。入力装置3から入力された情報が、視線のキャリブレーションを含む処理を実行させる命令である場合、画像取得部101は、対象人物に注視点を注視させる処理を注視指示部102に実行させる。   Based on the information input from the input device 3, the image acquisition unit 101 determines whether or not to perform processing for causing the target person to watch the gazing point. The input device 3 is a button switch, a touch panel device, or the like, and is used, for example, for inputting a command for causing the line-of-sight detection device 1 to start a line-of-sight detection process, a command for performing line-of-sight calibration, and the like. When the information input from the input device 3 is a command for executing processing including line-of-sight calibration, the image acquisition unit 101 causes the gaze instruction unit 102 to execute processing for causing the target person to gaze at the gaze point.

注視指示部102は、出力装置4を利用して、対象人物に注視させる位置(注視点)を対象人物に通知する処理を行う。例えば、出力装置4が表示装置である場合、注視指示部102は、表示装置の表示面に注視点を示す画像を表示させる。また、出力装置4がスピーカである場合、注視指示部102は、予め用意された音声信号をスピーカに出力する。   The gaze instruction unit 102 uses the output device 4 to perform processing for notifying the target person of the position (gaze point) at which the target person is gazed. For example, when the output device 4 is a display device, the gaze instruction unit 102 displays an image indicating a gazing point on the display surface of the display device. When the output device 4 is a speaker, the gaze instruction unit 102 outputs a prepared audio signal to the speaker.

特徴量算出部103は、赤外線カメラ201から取得した画像に基づいて、当該画像に写っている対象人物の眼球の特徴量を算出する。特徴量算出部103は、右眼及び左眼のそれぞれにおける角膜反射の中心及び瞳孔の中心を画像から抽出し、それらの位置関係を眼球の特徴量として算出する。角膜反射の位置と瞳孔の位置との位置関係は、例えば、画像内における、角膜反射の中心位置から見た瞳孔の中心位置を表す二次元の座標とする。   Based on the image acquired from the infrared camera 201, the feature amount calculation unit 103 calculates the feature amount of the eyeball of the target person shown in the image. The feature amount calculation unit 103 extracts the center of corneal reflection and the center of the pupil in each of the right eye and the left eye from the image, and calculates the positional relationship between them as the feature amount of the eyeball. The positional relationship between the position of the corneal reflection and the position of the pupil is, for example, a two-dimensional coordinate representing the center position of the pupil viewed from the center position of the corneal reflection in the image.

処理切替部104は、入力装置3から入力された情報と、パラメータ算出部107から入力される情報とに基づいて、視線を較正する処理と、視線を検出する処理とを切り替える。入力装置3から入力された情報に視線を較正する処理の実行を指示する情報が含まれ、かつ当該情報が入力された後の較正パラメータが決定していない場合、処理切替部104は、視線検出装置1で行う処理をキャリブレーション(視線を較正する処理)に切り替える。一方、入力装置3から入力された情報に視線を較正する処理の実行を指示する情報が含まれない場合、又は較正パラメータが既に決定している場合、処理切替部104は、視線検出装置1で行う処理を、視線を算出する処理に切り替える。   The process switching unit 104 switches between the process of calibrating the line of sight and the process of detecting the line of sight based on the information input from the input device 3 and the information input from the parameter calculation unit 107. When the information input from the input device 3 includes information instructing execution of the process of calibrating the line of sight, and the calibration parameter after the input of the information is not determined, the process switching unit 104 detects the line of sight. The processing performed by the apparatus 1 is switched to calibration (processing for calibrating the line of sight). On the other hand, when the information input from the input device 3 does not include information for instructing the execution of the process of calibrating the line of sight, or when the calibration parameter has already been determined, the process switching unit 104 is the line-of-sight detection apparatus 1. The processing to be performed is switched to the processing for calculating the line of sight.

特徴量補正部105は、特徴量算出部103で抽出した瞳孔の位置に基づいて両眼の瞳孔間距離を算出した後、必要に応じて眼球の特徴量を補正する。特徴量補正部105は、算出した瞳孔間距離と、予め設定された瞳孔間距離とが異なる場合に、算出した瞳孔間距離と、予め設定された瞳孔間距離との比に基づいて、眼球の特徴量を補正する。予め設定された瞳孔間距離は、眼球特徴データベース121に登録されている。   The feature amount correcting unit 105 calculates the interpupillary distance of both eyes based on the pupil position extracted by the feature amount calculating unit 103, and then corrects the feature amount of the eyeball as necessary. When the calculated interpupillary distance is different from the preset interpupillary distance, the feature amount correcting unit 105 determines the eyeball based on the ratio between the calculated interpupillary distance and the preset interpupillary distance. Correct the feature value. The preset interpupillary distance is registered in the eyeball feature database 121.

特徴決定部106は、特徴量算出部103で算出した眼球の特徴量(特徴量補正部105で補正した場合には補正後の眼球の特徴量)と、眼球特徴データベース121とに基づいて、対象人物の眼球特徴を決定する。眼球特徴データベース121には、眼球特徴の異なる複数の人物の各々が、複数の注視点のそれぞれを注視したときの眼球の特徴量が登録されている。特徴決定部106は、対象人物が複数の注視点のうちのいずれか一点を注視しているときの画像から算出した眼球の特徴量(又は特徴量補正部105で補正した眼球の特徴量)と、眼球特徴データベース121とに基づいて、対象人物の眼球特徴を決定する。すなわち、特徴決定部106は、対象人物が複数の注視点のうちのいずれか一点を注視しているときの眼球の特徴量と、眼球特徴データベース121とに基づいて、対象人物が複数の注視点のそれぞれを注視しているときの眼球の特徴量を決定する。   Based on the eyeball feature amount calculated by the feature amount calculation unit 103 (or the corrected eyeball feature amount when corrected by the feature amount correction unit 105) and the eyeball feature database 121, the feature determination unit 106 Determine the eye characteristics of the person. In the eyeball feature database 121, eyeball feature amounts when a plurality of persons with different eyeball features gaze at each of a plurality of gazing points are registered. The feature determination unit 106 includes the feature amount of the eyeball (or the feature amount of the eyeball corrected by the feature amount correction unit 105) calculated from the image when the target person is gazing at any one of a plurality of gazing points. Based on the eyeball feature database 121, the eyeball feature of the target person is determined. That is, the feature determination unit 106 determines that the target person has a plurality of gazing points based on the feature amount of the eyeball when the target person is gazing at any one of the plurality of gazing points and the eyeball feature database 121. The feature amount of the eyeball when gazing at each is determined.

パラメータ算出部107は、特徴決定部106で決定した眼球特徴に基づいて、対象人物の視線に対する較正パラメータを算出する。パラメータ決定部107は、較正パラメータを算出した後、算出した較正パラメータを視線算出部108に送信するとともに、較正パラメータを算出したことを処理切替部104に通知する。   The parameter calculation unit 107 calculates a calibration parameter for the line of sight of the target person based on the eyeball feature determined by the feature determination unit 106. After calculating the calibration parameter, the parameter determination unit 107 transmits the calculated calibration parameter to the line-of-sight calculation unit 108 and notifies the processing switching unit 104 that the calibration parameter has been calculated.

視線算出部108は、特徴量算出部103で算出した眼球の特徴量と、較正パラメータとに基づいて、対象人物の視線を算出する。視線算出部108は、算出した対象人物の視線を視線記憶部122に時系列に記憶させる。   The line-of-sight calculation unit 108 calculates the line of sight of the target person based on the feature amount of the eyeball calculated by the feature amount calculation unit 103 and the calibration parameter. The line-of-sight calculation unit 108 causes the line-of-sight storage unit 122 to store the calculated line of sight of the target person in time series.

図2は、眼球特徴データベースの例を示す図である。図3は、眼球の特徴量及び瞳孔間距離を説明する図である。   FIG. 2 is a diagram illustrating an example of an eyeball feature database. FIG. 3 is a diagram for explaining the feature amount of the eyeball and the inter-pupil distance.

図2に示すように、眼球特徴データベース121は、識別子(ID)と、注視点を注視しているときの眼球の特徴量(PG1〜PG5)と、瞳孔間距離(PD)とを含む。   As shown in FIG. 2, the eyeball feature database 121 includes an identifier (ID), a feature amount (PG1 to PG5) of the eyeball when gazing at the gazing point, and an interpupillary distance (PD).

識別子(ID)は、眼球特徴データベース121に登録された、眼球特徴を含むレコードを識別する値である。図2の眼球特徴データベース121では、一人の人物についての眼球特徴を右眼の眼球特徴と左眼の眼球特徴とにわけ、それぞれに別個の識別子を付与している。   The identifier (ID) is a value for identifying a record including an eyeball feature registered in the eyeball feature database 121. In the eyeball feature database 121 of FIG. 2, the eyeball feature for one person is divided into the eyeball feature of the right eye and the eyeball feature of the left eye, and a separate identifier is assigned to each.

注視点を注視しているときの眼球の特徴量は、注視点を注視しているときに撮像した画像における、角膜反射の中心から見た瞳孔の中心の相対位置を表す二次元の座標である。図2の眼球特徴データベース121では、1個の識別子(レコード)に対する眼球特徴として、5個の注視点PG1〜PG5のそれぞれについての眼球の特徴量が登録されている。   The feature amount of the eyeball when gazing at the gazing point is a two-dimensional coordinate representing the relative position of the center of the pupil viewed from the center of corneal reflection in the image captured when gazing at the gazing point. . In the eyeball feature database 121 in FIG. 2, eyeball feature amounts for each of the five gazing points PG1 to PG5 are registered as eyeball features for one identifier (record).

瞳孔間距離(PD)は、眼球特徴データベース121の作成に用いた画像における右眼の瞳孔と左眼の瞳孔との距離である。眼球特徴データベース121の作成には、赤外線カメラ201から人物までの距離が所定の距離(例えば600mm)である状態で撮像した人物の画像を用いる。すなわち、眼球特徴データベース121における瞳孔間距離は、赤外線カメラ201から人物までの距離が所定の距離であるときの瞳孔間距離である。   The interpupillary distance (PD) is the distance between the right eye pupil and the left eye pupil in the image used to create the eyeball feature database 121. The eyeball feature database 121 is created using a human image captured in a state where the distance from the infrared camera 201 to the person is a predetermined distance (for example, 600 mm). That is, the interpupillary distance in the eyeball feature database 121 is the interpupillary distance when the distance from the infrared camera 201 to the person is a predetermined distance.

このように、眼球特徴データベース121に登録された複数のレコードは、それぞれ、一人の人物が5個の注視点PG1〜PG5のそれぞれを注視したときの眼球の特徴量と、瞳孔間距離とを含む。   As described above, the plurality of records registered in the eyeball feature database 121 include the feature amount of the eyeball and the interpupillary distance when one person gazes each of the five gazing points PG1 to PG5. .

視線検出装置1が取得する画像は、上記のように、赤外線を対象人物の顔面に照射した状態で、赤外線カメラ201により撮像した対象人物の眼球を含む画像である。そのため、図3の(a)に示すように、取得した画像5における眼球6の部分には、赤外線による角膜反射601が写っている。   The image acquired by the line-of-sight detection device 1 is an image including the eyeball of the target person imaged by the infrared camera 201 in a state where the face of the target person is irradiated with infrared rays as described above. Therefore, as shown in FIG. 3A, a cornea reflection 601 by infrared rays is reflected in the portion of the eyeball 6 in the acquired image 5.

瞳孔−角膜反射法により視線を検出する視線検出装置1では、例えば、角膜反射601の中心Q1を基準点とし、基準点Q1から見た瞳孔602の中心Q2の相対位置に基づいて、視線を検出する。この際、視線検出装置1は、画像5に基づいて算出した視線と、対象人物の実際の視線との誤差を低減し、精度良く視線を検出するためのキャリブレーションを行う。   In the line-of-sight detection device 1 that detects the line of sight by the pupil-corneal reflection method, for example, the line of sight is detected based on the relative position of the center Q2 of the pupil 602 viewed from the reference point Q1 with the center Q1 of the corneal reflection 601 as the reference point. To do. At this time, the line-of-sight detection apparatus 1 performs calibration for reducing the error between the line of sight calculated based on the image 5 and the actual line of sight of the target person and detecting the line of sight with high accuracy.

本実施形態に係る視線検出装置1では、予め定めた複数の注視点のうちのいずれか1点を対象人物が注視している画像を取得し、当該画像における眼球の特徴量と、眼球特徴データベースとに基づいてキャリブレーションを行う。対象人物に注視させる注視点は、眼球特徴データベースを作成する際に設定した複数の注視点のうちのいずれか1点とする。図2の眼球特徴データベース121を利用してキャリブレーションを行う場合、視線検出装置1は、5個の注視点PG1〜PG5のうちのいずれか1点を対象人物が注視している画像を取得してキャリブレーションを行う。   In the line-of-sight detection device 1 according to the present embodiment, an image in which the target person is gazing at any one of a plurality of predetermined gazing points is acquired, and the eyeball feature amount and the eyeball feature database in the image are acquired. Perform calibration based on the above. The gazing point to be watched by the target person is any one of a plurality of gazing points set when the eyeball feature database is created. When performing calibration using the eyeball feature database 121 of FIG. 2, the line-of-sight detection device 1 acquires an image in which the target person is gazing at any one of the five gazing points PG1 to PG5. Perform calibration.

視線検出装置1は、対象人物が指定した1点(注視点)を注視している状態で撮像した画像5を取得し、取得した画像5における右眼の特徴量及び左眼の特徴量を算出する。その後、視線検出装置1は、画像5における瞳孔間距離と、眼球特徴データベース121の瞳孔間距離とに基づき、必要に応じて画像5における右眼の特徴量及び左眼の特徴量を補正する。図3の(b)に示すように、赤外線カメラ201から取得した画像5には、対象人物の右眼6Rと左眼6Lとが写っている。瞳孔間距離PDは、画像5上における右眼6Rの瞳孔602Rの中心Q2Rと、左眼6Lの瞳孔602Lの中心Q2Lとの距離(画素差)である。画像5において、右眼6Rの瞳孔602Rの中心Q2Rを含む画素が座標(PRx,PRy)で表され、左眼6Lの瞳孔602Lの中心Q2Lを含む画素が座標(PLx,PLy)で表されるとすると、瞳孔間距離PDは、下記式(1)により算出される。   The line-of-sight detection device 1 acquires an image 5 captured while gazing at one point (gaze point) designated by the target person, and calculates the feature amount of the right eye and the feature amount of the left eye in the acquired image 5. To do. Thereafter, the line-of-sight detection apparatus 1 corrects the right eye feature amount and the left eye feature amount in the image 5 as necessary, based on the interpupillary distance in the image 5 and the interpupillary distance in the eyeball feature database 121. As shown in FIG. 3B, the right eye 6R and the left eye 6L of the target person are shown in the image 5 acquired from the infrared camera 201. The inter-pupil distance PD is a distance (pixel difference) between the center Q2R of the pupil 602R of the right eye 6R and the center Q2L of the pupil 602L of the left eye 6L on the image 5. In the image 5, a pixel including the center Q2R of the pupil 602R of the right eye 6R is represented by coordinates (PRx, PRy), and a pixel including the center Q2L of the pupil 602L of the left eye 6L is represented by coordinates (PLx, PLy). Then, the interpupillary distance PD is calculated by the following equation (1).

Figure 2017213191
Figure 2017213191

例えば、画像5における右眼6Rの瞳孔602Rの中心Q2Rを含む画素が座標(173,124)の画素であり、左眼6Lの瞳孔602Lの中心Q2Lを含む画素が座標(275,131)の画素である場合、瞳孔間距離PDは102.2(pix)となる。この場合、画像5から算出した瞳孔間距離は、画像特徴データベース121における瞳孔間距離とは異なる。そのため、視線検出装置1(特徴量補正部105)は、算出した瞳孔間距離とデータベースの瞳孔間距離との比に基づいて、算出した眼球の特徴量を補正する。例えば、画像5から算出した右眼の特徴量が(0,−2)であった場合、特徴量補正部105は、瞳孔間距離の比に基づいて、当該特徴量を(0×100/102.2,−2×100/102.2)≒(0,−1.95)に補正する。   For example, the pixel including the center Q2R of the pupil 602R of the right eye 6R in the image 5 is the pixel at coordinates (173, 124), and the pixel including the center Q2L of the pupil 602L of the left eye 6L is the pixel at coordinates (275, 131). In this case, the inter-pupil distance PD is 102.2 (pix). In this case, the interpupillary distance calculated from the image 5 is different from the interpupillary distance in the image feature database 121. Therefore, the line-of-sight detection device 1 (feature amount correction unit 105) corrects the calculated feature amount of the eyeball based on the ratio between the calculated interpupillary distance and the interpupillary distance in the database. For example, when the right eye feature amount calculated from the image 5 is (0, −2), the feature amount correction unit 105 calculates the feature amount to (0 × 100/102) based on the ratio of the inter-pupil distance. .2, -2 × 100 / 102.2) ≈ (0, −1.95).

眼球の特徴量を補正した場合、視線検出装置1(特徴決定部106)は、眼球特徴データベース121における対象人物に注視させた注視点の眼球の特徴量を参照し、補正後の特徴量と一致する特徴量を含むレコードを抽出する。抽出したレコードは、5個の注視点PG1〜PG5を注視したときの眼球の特徴量を含む。このため、特徴決定部106は、抽出したレコードに含まれる5個の眼球の特徴量を、それぞれ、対象人物が5個の注視点PG1〜PG5を注視したときの眼球の特徴量に決定する。特徴決定部106は、右眼及び左眼のそれぞれで、対象人物が5個の注視点PG1〜PG5を注視したときの眼球の特徴量に決定する。その後、視線検出装置1(パラメータ算出部107)は、決定した右眼についての5個の眼球の特徴量、及び左眼についての5個の眼球の特徴量に基づいて、較正パラメータを算出する。   When the feature amount of the eyeball is corrected, the line-of-sight detection device 1 (feature determination unit 106) refers to the feature amount of the eyeball of the gazing point that is focused on the target person in the eyeball feature database 121 and matches the corrected feature amount. To extract records that contain feature quantities. The extracted record includes the feature amount of the eyeball when gazing at the five gazing points PG1 to PG5. Therefore, the feature determination unit 106 determines the feature quantities of the five eyeballs included in the extracted record as the feature quantities of the eyeball when the target person gazes at the five gazing points PG1 to PG5, respectively. The feature determination unit 106 determines the feature amount of the eyeball when the target person gazes at the five gazing points PG1 to PG5 with each of the right eye and the left eye. Thereafter, the line-of-sight detection device 1 (parameter calculation unit 107) calculates a calibration parameter based on the determined feature amounts of the five eyeballs for the right eye and the feature amounts of the five eyeballs for the left eye.

このように、本実施形態の視線検出装置1では、対象人物が1個の注視点を注視しているときの画像と、画像特徴データベース121とに基づいて、対象人物が複数の注視点のそれぞれを注視しているときの眼球の特徴量を決定し、較正パラメータを算出する。すなわち、本実施形態の視線検出装置1において1回のキャリブレーションで対象人物に注視させる注視点は1個(1点)でよい。このため、本実施形態によれば、キャリブレーション時に対象人物に注視点を注視させる負担を軽減することが可能となる。   As described above, in the line-of-sight detection device 1 according to the present embodiment, the target person has each of a plurality of gaze points based on the image when the target person is gazing at one gaze point and the image feature database 121. A feature amount of the eyeball when gazing at is determined, and a calibration parameter is calculated. That is, the gaze detection apparatus 1 according to the present embodiment may have only one gaze point (one point) at which the target person gazes at one calibration. For this reason, according to the present embodiment, it is possible to reduce the burden on the target person to watch the gazing point during calibration.

上記の眼球特徴データベース121は、例えば、図4に示したデータベース作成装置7により作成する。   The above eyeball feature database 121 is created by, for example, the database creation device 7 shown in FIG.

図4は、データベース作成装置の機能的構成を示す図である。
図4に示すように、データベース作成装置7は、注視指示部701と、画像取得部702と、特徴量算出部703と、距離算出部704と、登録部705と、眼球特徴データベース121と、を備える。
FIG. 4 is a diagram illustrating a functional configuration of the database creation device.
As illustrated in FIG. 4, the database creation device 7 includes a gaze instruction unit 701, an image acquisition unit 702, a feature amount calculation unit 703, a distance calculation unit 704, a registration unit 705, and an eyeball feature database 121. Prepare.

注視指示部701は、入力装置3から眼球特徴の登録処理を開始する命令が入力されると、対象人物に注視させる注視点を指示する情報を生成し、生成した情報を出力装置4に送信する。注視指示部701は、注視点を指示する情報を出力装置4に送信した後、画像取得部702に対象人物の画像を取得させる。   When a command for starting eye feature registration processing is input from the input device 3, the gaze instruction unit 701 generates information indicating a gaze point to be watched by the target person, and transmits the generated information to the output device 4. . The gaze instruction unit 701 causes the image acquisition unit 702 to acquire an image of the target person after transmitting information indicating the gaze point to the output device 4.

画像取得部702は、視線センサ2の赤外線カメラ201で撮像した、対象人物の眼球を含む画像を取得する。視線センサ2(赤外線カメラ201及び赤外線LED 202)には、視線検出装置1と組み合わせて用いる視線センサ2と同じ条件で画像を撮像可能なものを用いる。   The image acquisition unit 702 acquires an image including the eyeball of the target person captured by the infrared camera 201 of the line-of-sight sensor 2. As the line-of-sight sensor 2 (infrared camera 201 and infrared LED 202), a sensor capable of capturing an image under the same conditions as the line-of-sight sensor 2 used in combination with the line-of-sight detection device 1 is used.

特徴量算出部703は、赤外線カメラ201から取得した画像から瞳孔及び角膜反射を抽出し、当該画像に写っている対象人物の眼球の特徴量を算出する。データベース作成装置7の特徴量算出部703は、視線検出装置1の特徴量算出部103と同様、眼球の特徴量として、右眼及び左眼のそれぞれにおける角膜反射の中心と瞳孔の中心との位置関係を表す値を算出する。角膜反射の中心と瞳孔の中心との位置関係は、例えば、角膜反射の中心から見た瞳孔の中心の相対位置を表す二次元の座標とする。   The feature amount calculation unit 703 extracts the pupil and corneal reflection from the image acquired from the infrared camera 201, and calculates the feature amount of the eyeball of the target person shown in the image. Similar to the feature quantity calculation unit 103 of the eye gaze detection apparatus 1, the feature quantity calculation unit 703 of the database creation device 7 uses the position of the center of the cornea reflection and the center of the pupil in each of the right eye and the left eye as the feature quantity of the eyeball. A value representing the relationship is calculated. The positional relationship between the center of the corneal reflection and the center of the pupil is, for example, two-dimensional coordinates representing the relative position of the center of the pupil viewed from the center of the corneal reflection.

距離算出部704は、画像内における右眼の瞳孔の中心と、左眼の瞳孔の中心との瞳孔間距離(画素差)を算出する。   The distance calculation unit 704 calculates the inter-pupil distance (pixel difference) between the center of the right eye pupil and the center of the left eye pupil in the image.

登録部705は、特徴量算出部703で算出した眼球の特徴量と、距離算出部704で算出した瞳孔間距離との組を眼球特徴データベース121に登録する。登録部705は、右眼の特徴量と瞳孔間距離との組に右眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。また、登録部705は、左眼の特徴量と瞳孔間距離との組に左眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。   The registration unit 705 registers a set of the eyeball feature amount calculated by the feature amount calculation unit 703 and the interpupillary distance calculated by the distance calculation unit 704 in the eyeball feature database 121. The registration unit 705 assigns an identifier for the right eye to the set of the right eye feature amount and the interpupillary distance, and registers the set in the eye feature database 121 as one record. Also, the registration unit 705 assigns an identifier for the left eye to the set of the left eye feature amount and the interpupillary distance, and registers it in the eyeball feature database 121 as one record.

データベース作成装置7のオペレータ或いは対象人物が入力装置3を操作して眼球特徴の登録処理を開始する命令を入力すると、データベース作成装置7は、図5に示す処理を開始する。   When the operator of the database creation device 7 or the target person operates the input device 3 to input a command for starting the eye feature registration process, the database creation device 7 starts the process shown in FIG.

図5は、第1の実施形態に係る眼球特徴データベースの作成処理を説明するフローチャートである。   FIG. 5 is a flowchart for explaining eyeball feature database creation processing according to the first embodiment.

データベース作成装置7は、まず、複数の注視点のうちの1個の注視点を指定し(ステップS11)、指定した注視点を注視している人物の眼球を含む画像を取得する(ステップS12)。その後、データベース作成装置7は、複数の注視点を全て指定したか否かを判定する(ステップS13)。そして、指定していない注視点がある場合(ステップS13;No)、データベース作成装置7は、ステップS11及びS12の処理を繰り返す。ステップS11の処理は、注視指示部701が行う。ステップS12の処理は、画像取得部702が赤外線カメラ201と協働して行う。ステップS13の判定は、注視指示部701又は画像取得部702が行う。   First, the database creation device 7 designates one gazing point among a plurality of gazing points (step S11), and acquires an image including the eyeball of the person gazing at the designated gazing point (step S12). . Thereafter, the database creation device 7 determines whether or not all of the plurality of gazing points have been designated (step S13). If there is a point of interest that has not been specified (step S13; No), the database creation device 7 repeats the processes of steps S11 and S12. The gaze instruction unit 701 performs the process in step S11. The processing in step S12 is performed by the image acquisition unit 702 in cooperation with the infrared camera 201. The determination in step S13 is performed by the gaze instruction unit 701 or the image acquisition unit 702.

ステップS11において、注視指示部701は、所定の指定規則に従って、予め定めた複数の注視点のうちの1個の注視点を指定する。指定規則は、例えば、一人の人物に対する処理において指定していない注視点のうち、予め設定された指定順序において1番目となる注視点を指定する、という規則とする。   In step S11, the gaze instruction unit 701 designates one gaze point among a plurality of predetermined gaze points according to a predetermined designation rule. The designation rule is, for example, a rule of designating a first gaze point in a preset designation order among gaze points that are not designated in the process for one person.

注視点を指定した後、注視指示部701は、出力装置4を用いて指定した注視点を人物に通知して当該注視点を注視させる。例えば、出力装置4がスピーカである場合、注視指示部701は、指定した注視点を注視させる音声を含む音声信号を出力装置4に出力する。また、出力装置4が表示装置である場合、注視指示部701は、注視点を表す像を含む画像信号を出力装置4に出力する。注視指示部701は、出力装置4を用いて人物に注視点を注視させた後、画像取得部702に注視点を注視している人物の眼球を含む画像を取得させる。   After designating the gaze point, the gaze instruction unit 701 notifies the person of the gaze point designated using the output device 4 and causes the gaze point to be watched. For example, when the output device 4 is a speaker, the gaze instruction unit 701 outputs to the output device 4 an audio signal including a sound that causes the designated gaze point to be watched. When the output device 4 is a display device, the gaze instruction unit 701 outputs an image signal including an image representing the gazing point to the output device 4. The gaze instruction unit 701 causes the person to gaze at the gaze point using the output device 4, and then causes the image acquisition unit 702 to obtain an image including the eyeball of the person who gazes at the gaze point.

ステップS12において、画像取得部702は、視線センサ2の赤外線カメラ201に画像を撮像させ、赤外線カメラ201が撮像した画像を取得する。   In step S12, the image acquisition unit 702 causes the infrared camera 201 of the line-of-sight sensor 2 to capture an image and acquires an image captured by the infrared camera 201.

注視指示部701及び画像取得部702は、予め定めた複数の注視点の全てを指定し、一人の人物が複数の注視点のそれぞれを注視している複数枚の画像を取得するまで、上記の処理を繰り返す。ステップS13の判定を注視指示部701で行う場合、画像取得部702は、画像を取得する毎に、画像を取得したことを注視指示部701に通知する。画像取得部702からの通知を受けると、注視指示部701は、ステップS13の判定を行う。指定していない注視点がある場合(ステップS13;No)、注視指示部701は、次の注視点を指定して対象人物に当該注視点を注視させるとともに、画像取得部702に画像を取得させる。一方、全ての注視点が指定済みである場合(ステップS13;Yes)、データベース作成装置7は、次に、複数枚の画像のそれぞれから瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS14)。   The gaze instruction unit 701 and the image acquisition unit 702 specify all of a plurality of predetermined gazing points, and obtain a plurality of images in which one person is gazing at each of the plurality of gazing points. Repeat the process. When the determination in step S13 is performed by the gaze instruction unit 701, the image acquisition unit 702 notifies the gaze instruction unit 701 that the image has been acquired every time an image is acquired. Upon receiving the notification from the image acquisition unit 702, the gaze instruction unit 701 performs the determination in step S13. When there is an unspecified gaze point (step S13; No), the gaze instruction unit 701 designates the next gaze point, causes the target person to gaze at the gaze point, and causes the image acquisition unit 702 to acquire an image. . On the other hand, when all the gazing points have been designated (step S13; Yes), the database creation device 7 next extracts the pupil and corneal reflection from each of the plurality of images and calculates the feature amount of the eyeball. (Step S14).

これに対し、ステップS13の判定を画像取得部702で行う場合、画像取得部702は、ステップS13の判定として、一人の人物が全ての注視点のそれぞれを注視している画像を取得したか否かの判定をする。画像を取得していない注視点がある場合(ステップS13;No)、画像取得部702は、注視指示部701に次の注視点を指定させる。一方、全ての注視点を注視させて画像を取得した場合(ステップS13;Yes)、データベース作成装置7は、次に、複数枚の画像のそれぞれから瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS14)。   On the other hand, when the determination in step S13 is performed by the image acquisition unit 702, the image acquisition unit 702 has acquired, as the determination in step S13, an image in which a single person is gazing at each of all gazing points. Judgment is made. When there is a gaze point for which an image has not been acquired (step S13; No), the image acquisition unit 702 causes the gaze instruction unit 701 to specify the next gaze point. On the other hand, when the image is acquired by gazing all the gazing points (step S13; Yes), the database creation device 7 next extracts the pupil and corneal reflection from each of the plurality of images, and the feature amount of the eyeball. Is calculated (step S14).

ステップS14の処理は、特徴量算出部703が行う。特徴量算出部703は、既知の瞳孔−角膜反射法における瞳孔及び角膜反射の抽出方法に従って、取得した画像から、右眼の瞳孔及び角膜反射と、左眼の瞳孔及び角膜反射と、を抽出する。その後、特徴量算出部703は、右眼の角膜反射の中心と瞳孔の中心との位置関係に基づいて、各注視点を注視しているときの右眼の眼球の特徴量(右眼の特徴量)を算出する。また、特徴量抽出部703は、左眼の角膜反射の中心と瞳孔の中心との位置関係に基づいて、各注視点を注視しているときの左眼の眼球の特徴量(左眼の特徴量)を算出する。特徴量算出部703は、複数枚の画像のそれぞれから抽出した右眼の特徴量及び左眼の特徴量を、各画像の撮像時に人物が注視している注視点と対応付けて距離算出部704に送信する。   The feature amount calculation unit 703 performs the process in step S14. The feature amount calculation unit 703 extracts the right eye pupil and corneal reflection and the left eye pupil and corneal reflection from the acquired image according to a known pupil-corneal reflection extraction method in the known pupil-corneal reflection method. . After that, the feature amount calculation unit 703, based on the positional relationship between the center of the corneal reflection of the right eye and the center of the pupil, the feature amount of the right eye's eyeball when gazing at each gazing point (feature of the right eye) Amount). The feature amount extraction unit 703 also determines the feature amount of the left eye's eyeball when gazing at each gazing point based on the positional relationship between the center of the corneal reflection of the left eye and the center of the pupil (feature of the left eye). Amount). The feature amount calculation unit 703 associates the right eye feature amount and the left eye feature amount extracted from each of the plurality of images with the gazing point that the person is gazing at the time of capturing each image, and the distance calculation unit 704. Send to.

ステップS14の処理を終えると、データベース作成装置7は、次に、各画像から抽出した瞳孔の位置に基づいて瞳孔間距離を算出する(ステップS15)。ステップS15の処理は、距離算出部704が行う。例えば、距離算出部704は、まず、注視点が異なる複数枚の画像のそれぞれで右眼の瞳孔の中心と左眼の瞳孔の中心との瞳孔間距離(画素数)を算出する。その後、距離算出部704は、算出した複数の瞳孔間距離の平均値を算出し、これを画像に写っている人物の瞳孔間距離とする。距離算出部704は、特徴量算出部703から受け取った右眼及び左眼の特徴量と、自身が算出した瞳孔間距離とを、登録部705に送信する。   When the processing in step S14 is completed, the database creation device 7 next calculates the interpupillary distance based on the position of the pupil extracted from each image (step S15). The distance calculation unit 704 performs the process in step S15. For example, the distance calculation unit 704 first calculates the inter-pupil distance (number of pixels) between the center of the right eye pupil and the center of the left eye pupil for each of a plurality of images with different gazing points. Thereafter, the distance calculation unit 704 calculates the average value of the calculated plurality of inter-pupil distances, and sets this as the inter-pupil distance of the person shown in the image. The distance calculation unit 704 transmits the right and left eye feature amounts received from the feature amount calculation unit 703 and the interpupillary distance calculated by the distance calculation unit 704 to the registration unit 705.

ステップS15の処理を終えると、データベース作成装置7は、次に、登録部705において各画像から算出した右眼の特徴量及び左眼の特徴量と、瞳孔間距離とを眼球特徴データベース121に登録する処理を行う(ステップS16)。登録部705は、各注視点を注視しているときの右眼の特徴量と、瞳孔間距離との組に右眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。この際、右眼の特徴量は、それぞれ、眼球特徴データベース121における複数の注視点のうちの各右眼の特徴量と対応付けられた注視点のフィールドに登録する。また、登録部705は、各注視点を注視しているときの左眼の特徴量と、瞳孔間距離との組に左眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。この際、左眼の特徴量は、それぞれ、眼球特徴データベース121における複数の注視点のうちの各左眼の特徴量と対応付けられた注視点のフィールドに登録する。   When the processing of step S15 is completed, the database creation device 7 then registers the right eye feature amount, left eye feature amount, and interpupillary distance calculated from each image in the registration unit 705 in the eye feature database 121. Is performed (step S16). The registration unit 705 assigns an identifier for the right eye to the set of the feature amount of the right eye and the interpupillary distance when each gazing point is being watched, and registers it in the eyeball feature database 121 as one record. . At this time, the feature amount of the right eye is registered in the gaze point field associated with the feature amount of each right eye among the plurality of gaze points in the eyeball feature database 121. In addition, the registration unit 705 assigns an identifier for the left eye to the set of the feature amount of the left eye and the interpupillary distance when gazing at each gazing point, and stores it in the eyeball feature database 121 as one record. sign up. At this time, the feature amount of the left eye is registered in the gaze point field associated with the feature amount of each left eye among the plurality of gaze points in the eyeball feature database 121.

ステップS16の処理を終えると、データベース作成装置7は、眼球特徴データベースの作成処理を続けるか否かを判定する(ステップS17)。ステップS17の判定では、データベース作成装置7は、例えば、作成処理を続けるか否かを示す情報の入力を待つ。そして、例えば、オペレータが入力装置3を操作して作成処理を続けることを表す情報を入力した場合、すなわち作成処理を続ける場合(ステップS17;Yes)、データベース作成装置7は、ステップS11〜S16の処理を行う。一方、オペレータが入力装置3を操作して作成処理を終了することを表す情報を入力した場合、すなわち作成処理を続けない場合(ステップS17;No)、データベース作成装置7は、作成処理を終了する。   When the process of step S16 is completed, the database creation device 7 determines whether or not to continue the creation process of the eyeball feature database (step S17). In the determination in step S17, the database creation device 7 waits for input of information indicating whether or not to continue the creation process, for example. For example, when the operator inputs information indicating that the creation process is continued by operating the input device 3, that is, when the creation process is continued (step S17; Yes), the database creation device 7 performs steps S11 to S16. Process. On the other hand, when the operator inputs information indicating that the creation process is to be ended by operating the input device 3, that is, when the creation process is not continued (step S17; No), the database creation apparatus 7 ends the creation process. .

上記の手順で作成した眼球特徴データベース121は、例えば、フラッシュメモリを搭載したメモリカードや光ディスク等の可搬型記録媒体、或いは伝送ケーブルを介して視線検出装置1に転送して視線検出装置1の記憶部に格納する。   The eyeball feature database 121 created in the above procedure is transferred to the line-of-sight detection device 1 via a portable recording medium such as a memory card or an optical disk mounted with a flash memory, or a transmission cable, and stored in the line-of-sight detection device 1. Store in the department.

なお、眼球特徴データベース121を作成する際には、上記のように、角膜半径(眼球の大きさ)の異なる複数の人物の各々が複数の注視点を注視したときの眼球の特徴量及び瞳孔間距離を算出して登録する。この際、例えば、角膜半径は6.0mm〜9.0mmの範囲を0.1mm間隔で刻み、各角膜半径における眼球の特徴量を眼球登録データベース121に登録することが好ましい。角膜半径は、例えば、ケラトメータ等の専用の測定機器により計測可能である。また、眼球特徴データベース121に登録する眼球の特徴量は、人物の眼球を撮像した画像から算出する代わりに、例えば、コンピュータ上で再現した眼球モデルを用いて算出してもよい。   When the eyeball feature database 121 is created, as described above, when the plurality of persons having different corneal radii (eyeball sizes) gaze at a plurality of gazing points, the feature amount of the eyeball and between the pupils Calculate and register the distance. At this time, for example, it is preferable that the corneal radius is in the range of 6.0 mm to 9.0 mm at intervals of 0.1 mm, and the feature amount of the eyeball at each corneal radius is registered in the eyeball registration database 121. The corneal radius can be measured by a dedicated measuring device such as a keratometer, for example. In addition, the feature amount of the eyeball registered in the eyeball feature database 121 may be calculated using, for example, an eyeball model reproduced on a computer, instead of calculating from an image obtained by capturing a human eyeball.

また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、図2に示したデータベース121に限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。   In addition, the eyeball feature information including a set of eyeball feature quantities when each of a plurality of gaze points is prepared is not limited to the database 121 shown in FIG. It may be registered (stored) in the storage unit in this manner.

図6は、視線検出装置の適用例を示す図である。
本実施形態の視線検出装置1は、例えば、図6の(a)及び(b)に示すように、車両8を運転する対象人物(運転者)9の視線9Sを検出する視線検出システムに適用可能である。この種の視線検出システムは、視線検出装置1と、視線センサ2と、入力装置3と、スピーカ4等の出力装置と、を含む。
FIG. 6 is a diagram illustrating an application example of the visual line detection device.
The line-of-sight detection device 1 of the present embodiment is applied to a line-of-sight detection system that detects the line of sight 9S of a target person (driver) 9 who drives the vehicle 8, as shown in FIGS. 6 (a) and 6 (b), for example. Is possible. This type of gaze detection system includes a gaze detection device 1, a gaze sensor 2, an input device 3, and an output device such as a speaker 4.

視線センサ2は、例えば、車両8のダッシュボード801上に、対象人物9と向かい合わせとなるよう設置される。視線検出装置1、入力装置3、及びスピーカ4は、例えば、車両8のセンターコンソール等に設置される。なお、視線検出装置1は、例えば、車両8の運転状態や車両8の周囲の情報を記録するドライブレコーダ(イベントデータレコーダ)に組み込まれていてもよい。   The line-of-sight sensor 2 is installed, for example, on the dashboard 801 of the vehicle 8 so as to face the target person 9. The line-of-sight detection device 1, the input device 3, and the speaker 4 are installed, for example, in the center console of the vehicle 8. Note that the line-of-sight detection device 1 may be incorporated in, for example, a drive recorder (event data recorder) that records the driving state of the vehicle 8 and information around the vehicle 8.

車両8を運転しているときの運転者(対象人物9)の視線9Sは、車両前方はもちろん、図示しない計器類(インストルメントパネル)、車室内のルームミラー802や図示しないドアミラー等にも向けられる。視線検出システムは、例えば、対象人物9の運転中の視線9Sを検出し、視線の履歴を保持する。視線検出システムが保持する視線の履歴は、例えば、対象人物9が安全運転のための適切な視線移動を行っているか否かの判定に用いられる。   The line of sight 9S of the driver (target person 9) when driving the vehicle 8 is directed not only to the front of the vehicle but also to instruments (instrument panel) (not shown), a room mirror 802 in the vehicle interior, a door mirror (not shown), etc. It is done. The line-of-sight detection system detects, for example, the line of sight 9S during driving of the target person 9, and holds the line-of-sight history. The line-of-sight history held by the line-of-sight detection system is used, for example, to determine whether or not the target person 9 is performing appropriate line-of-sight movement for safe driving.

車両8を運転している運転手(対象人物9)の視線9Sを検出する視線検出装置1で用いる眼球特徴データベース121は、例えば、車両8の運転席803に着座させた人物の画像を取得して作成する。   The eyeball feature database 121 used in the line-of-sight detection device 1 that detects the line of sight 9S of the driver (target person 9) driving the vehicle 8 acquires, for example, an image of a person seated in the driver's seat 803 of the vehicle 8. Create.

図7は、眼球特徴データベース作成時の画像の取得方法を説明する図である。
車両8を運転している対象人物9の視線9Sの検出し視線検出装置1を用いる場合、眼球特徴データベース121は、車両8と同じ車種の車両における運転席803に着座した人物が注視点を注視しているときの画像を取得して作成する。このとき、視線センサ2は、視線検出システムにおける視線センサ2の設置位置と略同一となる位置、すなわちダッシュボード801上の運転席803に着座した人物9と向かい合う位置に設置する。また、運転席803は、図7の(a)に示すように、視線センサ2の赤外線カメラ201から運転席803に着座した人物9の眼球6R,6Lまでの距離Fが所定の距離(例えば600mm)になるよう位置を調節する。
FIG. 7 is a diagram illustrating an image acquisition method when creating an eyeball feature database.
When detecting the line of sight 9S of the target person 9 who is driving the vehicle 8 and using the line-of-sight detection device 1, the eyeball feature database 121 shows that the person seated in the driver's seat 803 in a vehicle of the same vehicle type as the vehicle 8 is gazing at the gazing point. Get the image when you are doing. At this time, the line-of-sight sensor 2 is installed at a position that is substantially the same as the installation position of the line-of-sight sensor 2 in the line-of-sight detection system, that is, a position facing the person 9 seated on the driver's seat 803 on the dashboard 801. Further, as shown in FIG. 7A, the driver seat 803 has a predetermined distance (for example, 600 mm) from the infrared camera 201 of the line-of-sight sensor 2 to the eyeballs 6R and 6L of the person 9 seated on the driver seat 803. Adjust the position so that.

この状態で視線センサ2、入力装置3、及びスピーカ4等をデータベース作成装置7に接続し、図5のフローチャートに沿って眼球特徴データベース121を作成する。このとき、データベース作成装置7は、例えば、人物9の眼球6R,6Lよりも車両前方となる位置に設定される複数の注視点を順次注視させ、各注視点を注視しているときの人物9の画像を取得する。複数の注視点は、例えば、図7の(b)に示すように、人物9が車両前方を見ているときの視野10内における4隅PG1,PG2,PG4,及びPG5と、当該視野10の中心PG3の5点とする。5個の注視点PG1〜PG5は、例えば、それぞれシール状のマーカ11A〜11Eを車室内の各点に貼り付けて設ける。   In this state, the line-of-sight sensor 2, the input device 3, the speaker 4, and the like are connected to the database creation device 7, and the eyeball feature database 121 is created according to the flowchart of FIG. At this time, for example, the database creation device 7 sequentially gazes a plurality of gazing points set at positions in front of the vehicle with respect to the eyeballs 6R and 6L of the person 9, and the person 9 when gazing at each gazing point. Get the image. For example, as shown in FIG. 7B, the plurality of gazing points include four corners PG1, PG2, PG4, and PG5 in the field of view 10 when the person 9 is looking in front of the vehicle, Let it be 5 points of the center PG3. The five gazing points PG1 to PG5 are provided, for example, by sticking seal-like markers 11A to 11E to respective points in the passenger compartment.

データベース作成装置7は、例えば、まず人物9に左上の注視点PG1を注視させ、その状態で赤外線カメラ201により撮像した画像を取得する。次に、データベース作成装置7は、人物9に右上の注視点PG2を注視させ、その状態で赤外線カメラ201により撮像した画像を取得する。その後、データベース作成装置7は、人物9が視野10の中心PG3を注視しているときの画像、左下の注視点PG4を注視しているときの画像、及び右下の注視点PG5を注視しているときの画像を順次取得する。そして、データベース作成装置7は、取得した5枚の画像のそれぞれから、右眼及び左眼の特徴量を算出するとともに、瞳孔間距離を算出して、眼球特徴データベース121に登録する。   For example, the database creation device 7 first causes the person 9 to gaze at the upper left gazing point PG1, and acquires an image captured by the infrared camera 201 in that state. Next, the database creation device 7 causes the person 9 to gaze at the upper right gazing point PG2, and acquires an image captured by the infrared camera 201 in that state. Thereafter, the database creation device 7 looks at the image when the person 9 is gazing at the center PG3 of the visual field 10, the image when gazing at the lower left gazing point PG4, and the lower right gazing point PG5. Images are acquired sequentially. Then, the database creation device 7 calculates the feature amount of the right eye and the left eye from each of the acquired five images, calculates the inter-pupil distance, and registers it in the eye feature database 121.

なお、図7の(b)に示した注視点PG1〜PG5は一例に過ぎず、注視点PG1〜PG5の位置や形状、更に注視点の数は、適宜変更可能である。   Note that the gazing points PG1 to PG5 shown in FIG. 7B are merely examples, and the positions and shapes of the gazing points PG1 to PG5 and the number of gazing points can be changed as appropriate.

上記の方法で作成した眼球特徴データベース121を備えた視線検出装置1は、例えば、対象人物(運転手)9が入力装置3を操作して視線の検出処理を開始する命令を入力すると、図8に示す処理を開始する。   For example, when the target person (driver) 9 operates the input device 3 and inputs a command to start the eye gaze detection process, the eye gaze detection device 1 provided with the eyeball feature database 121 created by the above method is shown in FIG. The process shown in FIG.

図8は、第1の実施形態に係る視線検出装置が行う処理を説明するフローチャートである。   FIG. 8 is a flowchart for describing processing performed by the visual line detection device according to the first embodiment.

図8に示すように、視線検出装置1は、動作を開始すると、まず、較正パラメータ決定処理(ステップS1)を行う。ステップS1では、視線検出装置1は、眼球特徴データベース121を作成する際に設定した複数の注視点のうちのいずれか1個の注視点(第一の注視点)を指定し、対象人物が当該注視点を注視しているときの画像を取得する。その後、視線検出装置1は、指定した1個の注視点を注視している対象人物の画像における瞳孔の中心位置及び角膜反射の中心位置と、眼球特徴データベース121とに基づいて対象人物の眼球特徴を決定する。決定した眼球特徴は、対象人物が複数の注視点のそれぞれを注視したときの眼球の特徴量に相当する複数の眼球の特徴量を含む。そのため、眼球特徴を決定した後、視線検出装置1は、瞳孔−角膜反射法における、対象人物に複数の注視点を注視させて較正パラメータを算出する既知の算出方法に従って、較正パラメータを算出する。   As shown in FIG. 8, when the line-of-sight detection device 1 starts operating, first, calibration parameter determination processing (step S1) is performed. In step S <b> 1, the line-of-sight detection device 1 designates one of the plurality of gazing points set when creating the eyeball feature database 121 (first gazing point), and the target person Acquire an image when gazing at the gazing point. Thereafter, the line-of-sight detection device 1 uses the eyeball feature database 121 based on the center position of the pupil and the center position of the corneal reflection in the image of the target person who is gazing at the designated single gazing point. To decide. The determined eyeball features include a plurality of eyeball feature amounts corresponding to the eyeball feature amounts when the target person gazes each of the plurality of gaze points. Therefore, after determining the eyeball characteristics, the line-of-sight detection apparatus 1 calculates the calibration parameters according to a known calculation method for calculating the calibration parameters by causing the target person to gaze a plurality of gazing points in the pupil-corneal reflection method.

ステップS1の処理は、画像取得部101、注視指示部102、特徴量算出部103、特徴量補正部105、特徴決定部106、及びパラメータ算出部107が行う。   The processing in step S1 is performed by the image acquisition unit 101, the gaze instruction unit 102, the feature amount calculation unit 103, the feature amount correction unit 105, the feature determination unit 106, and the parameter calculation unit 107.

ステップS1で較正パラメータを決定した後、視線検出装置1は、視線検出処理(ステップS2)を行う。ステップS2では、視線検出装置1は、対象人物の画像における瞳孔の中心位置及び角膜反射の中心位置と、ステップS1で決定した較正パラメータとに基づいて、対象人物の視線を検出する(算出する)。ステップS2において、視線検出装置1は、瞳孔−膜反射法における既知の視線の算出方法に従って、対象人物の視線の方向や位置等を算出する。   After determining the calibration parameters in step S1, the line-of-sight detection device 1 performs a line-of-sight detection process (step S2). In step S2, the line-of-sight detection device 1 detects (calculates) the line of sight of the target person based on the center position of the pupil and the center position of corneal reflection in the image of the target person and the calibration parameter determined in step S1. . In step S <b> 2, the line-of-sight detection apparatus 1 calculates the direction and position of the line of sight of the target person according to a known line-of-sight calculation method in the pupil-membrane reflection method.

ステップS2の処理は、画像取得部101、特徴量算出部103、及び視線算出部108が行う。   The processing in step S2 is performed by the image acquisition unit 101, the feature amount calculation unit 103, and the line-of-sight calculation unit 108.

図9は、第1の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。   FIG. 9 is a flowchart for explaining the contents of the calibration parameter determination process according to the first embodiment.

較正パラメータ決定処理(ステップS1)において、視線検出装置1は、まず、対象人物が1個の注視点を注視している状態で撮像した、対象人物の眼球を含む画像を取得する(ステップS101)。ステップS101の処理は、画像取得部101と、注視指示部102とが行う。ステップS101において、画像取得部101は、まず、注視指示部102に、対象人物を所定の1個の注視点(第一の注視点)に注視させる処理を行わせる。注視指示部102は、眼球登録データベース121の注視点PG1〜PG5のいずれか1点(例えば注視点PG3)を注視させる音声信号を出力装置(スピーカ)4に出力し、対象人物に注視点PG3を注視させる。その一方で、画像取得部101は、視線センサ2の赤外線カメラ201に、対象人物が所定の注視点(注視点PG3)を注視している状態の画像を撮像させ、赤外線カメラ201で撮像した画像を取得する。その後、画像取得部101は、取得した画像を特徴量算出部103に送信する。   In the calibration parameter determination process (step S1), the line-of-sight detection device 1 first acquires an image including the eyeball of the target person that is captured while the target person is gazing at one gaze point (step S101). . The process of step S101 is performed by the image acquisition unit 101 and the gaze instruction unit 102. In step S <b> 101, the image acquisition unit 101 first causes the gaze instruction unit 102 to perform processing for gaze the target person at a predetermined one gaze point (first gaze point). The gaze instruction unit 102 outputs to the output device (speaker) 4 an audio signal that gazes at any one of the gaze points PG1 to PG5 (for example, the gaze point PG3) of the eyeball registration database 121, and sets the gaze point PG3 to the target person. Let them watch. On the other hand, the image acquisition unit 101 causes the infrared camera 201 of the line-of-sight sensor 2 to capture an image in a state where the target person is gazing at a predetermined gazing point (gazing point PG3), and an image captured by the infrared camera 201 To get. Thereafter, the image acquisition unit 101 transmits the acquired image to the feature amount calculation unit 103.

対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS102)。特徴量抽出部103は、データベース作成装置7の特徴量抽出部703と同様、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心及び角膜反射の中心を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。特徴量算出部103は、瞳孔−角膜反射法における既知の抽出方法に従って、画像内における瞳孔の中心を含む画素と角膜反射の中心を含む画素とを抽出した後、角膜反射の中心から見た瞳孔の中心の相対位置を算出する。   When the image of the target person is acquired, the line-of-sight detection device 1 then calculates the feature amount of the eyeball by extracting the pupil and corneal reflection from the acquired image in the feature amount calculation unit 103 (step S102). Similar to the feature extraction unit 703 of the database creation device 7, the feature extraction unit 103 extracts the center of the pupil and the center of corneal reflection in each of the right eye and the left eye in the image, and viewed from the center of corneal reflection. The relative position of the center of the pupil is calculated as the feature amount of the eyeball. The feature amount calculation unit 103 extracts the pixel including the center of the pupil and the pixel including the center of corneal reflection in the image according to a known extraction method in the pupil-corneal reflection method, and then the pupil viewed from the center of corneal reflection. The relative position of the center of is calculated.

特徴量算出部103は、算出した眼球の特徴量を処理切替部104に送信する。処理切替部104は、視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)であるか視線検出処理(ステップS2)であるかに応じて、眼球の特徴量の送信先を切り替える。視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)である場合、処理選択部104は、眼球の特徴量を特徴量補正部105に送信する。   The feature amount calculation unit 103 transmits the calculated feature amount of the eyeball to the process switching unit 104. The process switching unit 104 switches the transmission destination of the feature amount of the eyeball depending on whether the process performed by the visual line detection device 1 is the calibration parameter determination process (step S1) or the visual line detection process (step S2). . When the process performed by the line-of-sight detection device 1 is the calibration parameter determination process (step S <b> 1), the process selection unit 104 transmits the feature amount of the eyeball to the feature amount correction unit 105.

そのため、較正パラメータ決定処理を行っている場合、視線検出装置1は、次に、特徴量補正部105において、画像から抽出した瞳孔の位置に基づいて画像内における瞳孔間距離を算出する(ステップS103)。特徴量補正部105は、取得した1枚の画像における右眼の瞳孔の中心を含む画素の位置を表す座標と、左眼の瞳孔の中心を含む画素の位置を表す座標とに基づいて、式(1)により瞳孔間距離(画素差)を算出する。   Therefore, when the calibration parameter determination process is performed, the line-of-sight detection apparatus 1 next calculates the inter-pupil distance in the image based on the position of the pupil extracted from the image in the feature amount correction unit 105 (step S103). ). The feature amount correcting unit 105 calculates the expression based on the coordinates indicating the position of the pixel including the center of the right eye pupil and the coordinates indicating the position of the pixel including the center of the left eye pupil in one acquired image. The interpupillary distance (pixel difference) is calculated from (1).

次に、特徴量補正部105は、算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致するか否かを判定する(ステップS104)。算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて眼球の特徴量を補正し(ステップS105)、補正後の眼球の特徴量を特徴決定部106に送信する。一方、算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致する場合(ステップS104;Yes)、特徴量補正部105は、ステップS105の処理をスキップし、ステップS103で算出した眼球の特徴量を特徴決定部106に送信する。   Next, the feature amount correcting unit 105 determines whether or not the calculated interpupillary distance matches the interpupillary distance in the eyeball feature database 121 (step S104). When the calculated interpupillary distance does not match the interpupillary distance in the eyeball feature database 121 (step S104; No), the feature amount correcting unit 105 corrects the feature amount of the eyeball based on the ratio of the interpupillary distance (step S105). ), And transmits the corrected feature amount of the eyeball to the feature determination unit 106. On the other hand, when the calculated interpupillary distance matches the interpupillary distance in the eyeball feature database 121 (step S104; Yes), the feature amount correcting unit 105 skips the process of step S105 and calculates the eyeball feature calculated in step S103. The amount is transmitted to the feature determination unit 106.

ステップS103〜S105の処理を終えると、視線検出装置1は、次に、特徴決定部106において、眼球特徴データベース121を参照して較正に用いる眼球特徴を決定する(ステップS106)。特徴決定部106は、眼球特徴データベース121に登録された眼球の特徴量のうちのステップS101で指定した注視点を注視したときの眼球の特徴量を参照する。そして、特徴決定部106は、特徴量補正部105から受け取った眼球の特徴量と一致する眼球の特徴量含むレコードを抽出し、当該レコードに含まれる眼球の特徴量の組を較正に用いる眼球特徴に決定する。特徴決定部106は、決定した眼球特徴(ある識別子と対応付けられた眼球の特徴量の組)をパラメータ算出部107に送信する。   When the processes of steps S103 to S105 are completed, the line-of-sight detection device 1 next determines eye features used for calibration with reference to the eye feature database 121 in the feature determination unit 106 (step S106). The feature determination unit 106 refers to the feature amount of the eyeball when gazing at the gazing point designated in step S <b> 101 among the feature amounts of the eyeball registered in the eyeball feature database 121. Then, the feature determination unit 106 extracts a record including the feature amount of the eyeball that matches the feature amount of the eyeball received from the feature amount correction unit 105, and uses the eyeball feature amount set included in the record for calibration. To decide. The feature determination unit 106 transmits the determined eyeball feature (a set of eyeball feature amounts associated with a certain identifier) to the parameter calculation unit 107.

ステップS106の処理を終えると、視線検出装置1は、次に、パラメータ算出部107において、決定した眼球特徴に基づいて較正パラメータを算出し(ステップS107)、算出した較正パラメータを対象人物の較正パラメータに決定する。パラメータ算出部107は、瞳孔−角膜反射法における既知の算出方法に従って、較正パラメータを算出する。   When the process of step S106 is completed, the line-of-sight detection device 1 then calculates a calibration parameter based on the determined eye feature in the parameter calculation unit 107 (step S107), and uses the calculated calibration parameter as the calibration parameter of the target person. To decide. The parameter calculation unit 107 calculates a calibration parameter according to a known calculation method in the pupil-corneal reflection method.

ステップS107の処理を終えると、パラメータ算出部107は、算出した(決定した)較正パラメータを視線検出部108に送信するとともに、現在の対象人物についての較正パラメータが決定したことを処理切替部104に通知する。これにより、視線検出装置1における較正パラメータ決定処理が終了する。   When the process of step S107 is completed, the parameter calculation unit 107 transmits the calculated (determined) calibration parameter to the line-of-sight detection unit 108 and notifies the process switching unit 104 that the calibration parameter for the current target person has been determined. Notice. Thereby, the calibration parameter determination process in the line-of-sight detection device 1 ends.

上記の較正パラメータ決定処理(ステップS101〜S107)で較正パラメータを決定した後、視線検出装置1は、視線検出処理(ステップS2)として、図10に示す処理を行う。   After determining the calibration parameters in the calibration parameter determination process (steps S101 to S107), the line-of-sight detection device 1 performs the process shown in FIG. 10 as the line-of-sight detection process (step S2).

図10は、視線検出処理の内容を説明するフローチャートである。
視線検出処理を開始すると、視線検出装置1は、まず、対象人物の眼球を含む画像を取得する(ステップS201)。ステップS201の処理は、画像取得部101が行う。なお、画像取得部101は、図9のステップS101の処理を終えた後、定期的に赤外線カメラ201で撮像した画像を取得し続けていてもよいし、較正パラメータが決定したことを契機に赤外線カメラ201で撮像した画像の取得を開始してもよい。画像取得部101は、取得した画像を特徴量算出部103に送信する。
FIG. 10 is a flowchart for explaining the contents of the line-of-sight detection process.
When the line-of-sight detection process is started, the line-of-sight detection device 1 first acquires an image including the eyeball of the target person (step S201). The process of step S201 is performed by the image acquisition unit 101. In addition, after finishing the process of step S101 of FIG. 9, the image acquisition part 101 may continue acquiring the image imaged with the infrared camera 201 regularly, or an infrared ray will be triggered when the calibration parameter is determined. Acquisition of an image captured by the camera 201 may be started. The image acquisition unit 101 transmits the acquired image to the feature amount calculation unit 103.

対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS202)。ステップS202において、特徴量算出部103は、ステップS102の処理と同様、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心及び角膜反射の中心を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。特徴量算出部103は、瞳孔−角膜反射法における既知の抽出方法に従って、画像内における瞳孔の中心を含む画素と角膜反射の中心を含む画素とを抽出した後、角膜反射の中心から見た瞳孔の中心の相対位置を算出する。   When the image of the target person is acquired, the line-of-sight detection device 1 then calculates the feature amount of the eyeball by extracting the pupil and corneal reflection from the acquired image in the feature amount calculation unit 103 (step S202). In step S202, the feature amount calculation unit 103 extracts the center of the pupil and the center of corneal reflection in each of the right eye and the left eye in the image, as in the process of step S102, and the pupil as viewed from the center of the corneal reflection. The relative position of the center is calculated as the feature amount of the eyeball. The feature amount calculation unit 103 extracts the pixel including the center of the pupil and the pixel including the center of corneal reflection in the image according to a known extraction method in the pupil-corneal reflection method, and then the pupil viewed from the center of corneal reflection. The relative position of the center of is calculated.

特徴量算出部103は、算出した眼球の特徴量を処理切替部104に送信する。処理切替部104は、上記のように、視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)であるか視線検出処理(ステップS2)であるかに応じて、眼球の特徴量の送信先を切り替える。視線検出装置1は、上記のように、較正パラメータを決定すると、パラメータ決定部107から処理切替部104に較正パラメータが決定したことを通知する情報が送信される。処理切替部104は、パラメータ決定部107からの情報を受け取ると、視線検出装置1が行っている処理が視線検出処理に切り替わったと判断する。そして、視線検出装置1が視線検出処理を行っている場合、処理選択部104は、眼球の特徴量を視線算出部108に送信する。   The feature amount calculation unit 103 transmits the calculated feature amount of the eyeball to the process switching unit 104. As described above, the process switching unit 104 determines the feature amount of the eyeball depending on whether the process performed by the visual line detection device 1 is the calibration parameter determination process (step S1) or the visual line detection process (step S2). Switch the destination of. When the line-of-sight detection device 1 determines the calibration parameter as described above, the parameter determination unit 107 transmits information notifying the processing switching unit 104 that the calibration parameter has been determined. When the process switching unit 104 receives the information from the parameter determination unit 107, the process switching unit 104 determines that the process performed by the line-of-sight detection device 1 has been switched to the line-of-sight detection process. Then, when the line-of-sight detection device 1 is performing the line-of-sight detection process, the process selection unit 104 transmits the feature amount of the eyeball to the line-of-sight calculation unit 108.

そのため、視線検出処理を行っている場合、視線検出装置1は、次に、視線算出部108において、算出した眼球の特徴量と、較正パラメータとに基づいて、対象人物の視線を算出する(ステップS203)。視線算出部108は、瞳孔−角膜反射法における既知の視線算出方法に従って、対象人物の視線の方向や位置等を算出する。   Therefore, when the line-of-sight detection process is being performed, the line-of-sight detection apparatus 1 next calculates the line of sight of the target person based on the calculated feature amount of the eyeball and the calibration parameter in the line-of-sight calculation unit 108 (step) S203). The line-of-sight calculation unit 108 calculates the direction and position of the line of sight of the target person according to a known line-of-sight calculation method in the pupil-cornea reflection method.

対象人物の視線を算出すると、視線算出部108は、算出した視線を視線記憶部122に記憶させる(ステップS204)。   When the gaze of the target person is calculated, the gaze calculation unit 108 stores the calculated gaze in the gaze storage unit 122 (step S204).

ステップS201〜S204の処理を終えると、視線検出装置1は、検出処理を続けるか否かを判定する(ステップS205)。例えば、対象人物が入力装置3を操作して検出処理を終了する情報を入力した場合等、検出処理を続けない場合(ステップS205;No)、視線検出装置1は、視線検出処理を終了する。一方、検出処理を続ける場合(ステップS205;Yes)、視線検出装置1は、視線検出処理(ステップS201〜S204)を繰り返す。   When the processes of steps S201 to S204 are finished, the line-of-sight detection device 1 determines whether or not to continue the detection process (step S205). For example, when the target person operates the input device 3 and inputs information for ending the detection process, when the detection process is not continued (step S205; No), the line-of-sight detection device 1 ends the line-of-sight detection process. On the other hand, when continuing a detection process (step S205; Yes), the gaze detection apparatus 1 repeats a gaze detection process (step S201-S204).

図11は、瞳孔の位置及び角膜反射の位置と角膜半径との相関を説明する図である。
本実施形態の視線検出装置1のように瞳孔−角膜反射法により対象人物の視線を検出する場合、赤外線カメラ201で撮像した画像における瞳孔の位置及び角膜反射の位置と、対象人物の角膜半径とには、相関がある。
FIG. 11 is a diagram illustrating the correlation between the position of the pupil and the position of corneal reflection and the corneal radius.
When the gaze of the target person is detected by the pupil-corneal reflection method as in the gaze detection apparatus 1 of the present embodiment, the position of the pupil and the corneal reflection in the image captured by the infrared camera 201, the corneal radius of the target person, and Have a correlation.

例えば、図11に示すように、角膜半径の異なる2個の眼球61,62の眼球の中心Oを重ねると、眼球の中心Oから見た瞳孔の中心Q21,Q22の方向(視線9Sの方向)は、角膜半径R1,R2によらず同一の方向となる。また、眼球の中心Oから見た角膜反射の中心Q11,Q12の方向は、角膜半径R1,R2によらず、赤外線LED 202と眼球の中心Oとを結ぶ線分と、赤外線カメラ201と眼球の中心Oとを結ぶ線分とのなす角θを2等分する角度の方向となる。したがって、赤外線カメラ201から眼球の中心Oまでの距離が同一である場合、角膜反射の中心から瞳孔の中心までの距離は、角膜半径の大きい眼球61における距離が、角膜半径の小さい眼球62における距離よりも長くなる。   For example, as shown in FIG. 11, when the eyeball centers O of two eyeballs 61 and 62 having different corneal radii are overlapped, the directions of the pupil centers Q21 and Q22 viewed from the eyeball center O (direction of the line of sight 9S) Are in the same direction regardless of the corneal radii R1, R2. The directions of the corneal reflection centers Q11 and Q12 viewed from the center O of the eyeball are not related to the corneal radii R1 and R2, and the line segment connecting the infrared LED 202 and the center O of the eyeball, the infrared camera 201 and the eyeball. This is the direction of the angle that bisects the angle θ formed by the line connecting the center O. Therefore, when the distance from the infrared camera 201 to the center O of the eyeball is the same, the distance from the center of corneal reflection to the center of the pupil is the distance in the eyeball 61 having a large corneal radius and the distance in the eyeball 62 having a small corneal radius. Longer than.

更に、実空間においては、赤外線カメラ201から眼球の中心Oまでの距離は、眼球の角膜半径R1,R2に比べて非常に長い。そのため、赤外線カメラ201の撮像面における角膜反射の中心から瞳孔の中心までの距離と、角膜半径との相関は、図12のように表すことができる。   Furthermore, in real space, the distance from the infrared camera 201 to the center O of the eyeball is very long compared to the cornea radii R1 and R2 of the eyeball. Therefore, the correlation between the distance from the center of corneal reflection on the imaging surface of the infrared camera 201 to the center of the pupil and the corneal radius can be expressed as shown in FIG.

図12は、画像上における瞳孔の位置及び角膜反射の位置と角膜半径との相関を説明する図である。   FIG. 12 is a diagram for explaining the correlation between the position of the pupil and the position of corneal reflection on the image and the corneal radius.

図12における赤外線カメラ201の撮像面203から眼球の中心Oまでの距離Fは、眼球61,62の角膜半径R1,R2に比べて非常に長い。そのため、角膜反射の中心Q11.Q12から撮像面203に向かう赤外線、及び眼球における瞳孔の中心Q21,Q22から撮像面203に向かう赤外線は、角膜半径R1,R2によらず平行であるとみなすことができる。   The distance F from the imaging surface 203 of the infrared camera 201 in FIG. 12 to the center O of the eyeball is much longer than the cornea radii R1 and R2 of the eyeballs 61 and 62. Therefore, the center Q11. The infrared rays from Q12 toward the imaging surface 203 and the infrared rays from the pupil centers Q21 and Q22 in the eyeball toward the imaging surface 203 can be regarded as parallel regardless of the corneal radii R1 and R2.

ここで、眼球の中心Oから見た瞳孔の中心Q21,Q22の方向(視線9Sの方向)が同一であるとする。この場合、撮像面203における、眼球61の角膜反射の中心Q11から瞳孔の中心Q21までの距離L1は、眼球62の角膜反射の中心Q12から瞳孔の中心Q22までの距離L2よりも長くなる。このように、複数の対象人物が赤外線カメラ201から見て同じ位置で同じ方向を見たとしても、各対象人物の角膜半径(眼球の大きさ)に応じて、画像内における眼球の特徴量は異なる値となる。すなわち、赤外線カメラ201及び赤外線LED 202の設置位置がわかっており、かつ赤外線カメラ201から対象人物の眼球までの距離を所定の距離とした場合、角膜反射の中心と瞳孔の中心との位置関係は、角膜半径にのみ依存する。   Here, it is assumed that the directions of the pupil centers Q21 and Q22 (the direction of the line of sight 9S) viewed from the center O of the eyeball are the same. In this case, the distance L1 from the corneal reflection center Q11 of the eyeball 61 to the pupil center Q21 on the imaging surface 203 is longer than the distance L2 from the corneal reflection center Q12 of the eyeball 62 to the pupil center Q22. As described above, even when a plurality of target persons see the same direction at the same position when viewed from the infrared camera 201, the feature amount of the eyeball in the image depends on the cornea radius (eyeball size) of each target person. Different values. That is, when the installation positions of the infrared camera 201 and the infrared LED 202 are known and the distance from the infrared camera 201 to the eyeball of the target person is a predetermined distance, the positional relationship between the center of corneal reflection and the center of the pupil is It depends only on the corneal radius.

例えば、撮像面203(画像)における角膜反射の中心から瞳孔の中心までの距離がL1である場合、対象人物の眼球の角膜半径は、眼球61の角膜半径R1と同一であるとみなすことができる。そのため、眼球の角膜半径がR1である人物についての眼球の特徴量が眼球特徴データベース121に登録されていれば、1個の注視点を注視したときの眼球の特徴量と、眼球特徴データベース121とに基づいて、対象人物の眼球の特徴量の組を決定することが可能となる。   For example, when the distance from the center of corneal reflection on the imaging surface 203 (image) to the center of the pupil is L1, the cornea radius of the eyeball of the target person can be regarded as the same as the cornea radius R1 of the eyeball 61. . Therefore, if the eyeball feature amount for a person whose cornea radius is R1 is registered in the eyeball feature database 121, the eyeball feature amount when one gaze point is watched, the eyeball feature database 121, Based on the above, it is possible to determine a set of feature quantities of the eyeball of the target person.

すなわち、赤外線カメラ201から対象人物の眼球までの距離を所定の距離としたときの角膜反射の中心と瞳孔の中心との位置関係がわかれば、その位置関係に基づいて、対象人物の角膜半径(眼球の大きさ)を推定することができる。そして、対象人物の角膜半径を推定することができれば、ある方向を見ている対象人物の眼球の画像における角膜反射の中心と瞳孔の中心との位置関係を、他の人物の眼球の画像における位置関係から推定することが可能となる。したがって、眼球特徴データベース121に眼球の大きさ(角膜半径)の異なる複数の人物のそれぞれが複数の注視点を注視したときの眼球の特徴量の組を登録しておくことにより、1つの注視点に基づいて対象人物の眼球の特徴量を決定することが可能となる。よって、本実施形態によれば、対象人物に1つの注視点を注視させるだけで視線の較正パラメータの決定に必要な複数の特徴量を決定することが可能となり、注視点を注視するという対象人物の負担を軽減することが可能となる。   That is, if the positional relationship between the center of corneal reflection and the center of the pupil when the distance from the infrared camera 201 to the eyeball of the target person is a predetermined distance is known, the corneal radius of the target person ( The size of the eyeball) can be estimated. If the corneal radius of the target person can be estimated, the positional relationship between the center of the cornea reflection and the center of the pupil in the image of the eyeball of the target person looking in a certain direction can be determined based on the position in the image of the other person's eyeball. It can be estimated from the relationship. Therefore, by registering a set of eyeball feature quantities when a plurality of persons with different eyeball sizes (corneal radii) gaze at a plurality of gaze points in the eyeball feature database 121, one gaze point is registered. It is possible to determine the feature amount of the eyeball of the target person based on the above. Therefore, according to the present embodiment, it is possible to determine a plurality of feature quantities necessary for determining the calibration parameter of the line of sight simply by having the target person gaze at one gaze point, and the target person gazes at the gaze point. It becomes possible to reduce the burden.

しかも、本実施形態に係る較正パラメータ決定処理においては、1個の赤外線カメラ201と1個の赤外線LED 202との組を用いて取得した画像と、眼球特徴パラメータ121とに基づいて、較正パラメータを算出することが可能である。そのため、本実施形態によれば、赤外線カメラ201及び/又は赤外線照明を複数設ける必要は無く、視線検出装置1、赤外線カメラ201、及び赤外線LED 202を含む視線検出システムにおける装置の増大を抑制することが可能である。したがって、視線検出システムの導入コストの増大を抑えることが可能となる。更に、視線検出装置1が行う較正パラメータ決定処理は、取得した1枚の画像における眼球の特徴量と一致する特徴量を含むレコード(眼球特徴)を眼球特徴データベース121から抽出し、抽出した眼球特徴に基づいて較正パラメータを決定するという処理である。そのため、本実施形態によれば、複雑な処理を行うことなく、較正パラメータを決定することが可能であり、視線検出装置1の処理負荷の増大を抑えることが可能となる。   In addition, in the calibration parameter determination process according to the present embodiment, the calibration parameter is determined based on the image acquired using the set of one infrared camera 201 and one infrared LED 202 and the eyeball feature parameter 121. It is possible to calculate. Therefore, according to this embodiment, there is no need to provide a plurality of infrared cameras 201 and / or infrared illuminations, and an increase in the number of devices in the line-of-sight detection system including the line-of-sight detection device 1, the infrared camera 201, and the infrared LED 202 is suppressed. Is possible. Therefore, an increase in the introduction cost of the line-of-sight detection system can be suppressed. Further, in the calibration parameter determination process performed by the line-of-sight detection device 1, a record (eyeball feature) including a feature quantity that matches the feature quantity of the eyeball in one acquired image is extracted from the eyeball feature database 121, and the extracted eyeball feature is extracted. This is a process of determining the calibration parameter based on the above. Therefore, according to this embodiment, it is possible to determine the calibration parameter without performing complicated processing, and it is possible to suppress an increase in the processing load of the line-of-sight detection device 1.

なお、赤外線カメラ201で撮像した画像から算出する眼球の特徴量は、角膜反射の中心から見た瞳孔の中心の相対位置に限らず、瞳孔の中心から見た角膜半径の中心の相対位置であってもよい。更に、眼球の特徴量を補正するか否かの判定に用いる値は、瞳孔間距離に限らず、両眼の角膜反射の距離であってもよい。   Note that the feature amount of the eyeball calculated from the image captured by the infrared camera 201 is not limited to the relative position of the center of the pupil viewed from the center of the corneal reflection, but is the relative position of the center of the corneal radius viewed from the center of the pupil. May be. Furthermore, the value used for determining whether or not to correct the feature amount of the eyeball is not limited to the inter-pupil distance, but may be the distance of corneal reflection of both eyes.

また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、図2に示したデータベース121に限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。   In addition, as described above, the information on eyeball features including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the database 121 shown in FIG. May be registered (stored) in the storage unit in another manner that can be identified.

また、本実施形態に係る視線検出装置1は、上記の車両8を運転する運転者(対象人物9)の視線を検出する視線検出システムに限らず、種々の視線検出システムに適用可能である。   The line-of-sight detection device 1 according to the present embodiment is not limited to the line-of-sight detection system that detects the line of sight of the driver (target person 9) who drives the vehicle 8, and can be applied to various line-of-sight detection systems.

図13は、視線検出装置の別の適用例を示す図である。
本実施形態の視線検出装置1は、図13に示すように、表示装置12を見ている人物9の視線9Sを検出する視線検出システム14にも適用可能である。この種の視線検出システム14では、例えば、表示装置12に表示させる映像や画像、テキストデータ等の表示制御を含む各種の処理を行う情報処理装置13に視線検出装置1を組み込むことが可能である。更に、図13には示していないが、情報処理装置13には、データベース作成装置7を組み込むことも可能である。
FIG. 13 is a diagram illustrating another application example of the visual line detection device.
The line-of-sight detection device 1 of the present embodiment is also applicable to a line-of-sight detection system 14 that detects the line of sight 9S of a person 9 looking at the display device 12, as shown in FIG. In this type of line-of-sight detection system 14, for example, the line-of-sight detection device 1 can be incorporated into an information processing device 13 that performs various processes including display control of images, images, text data, and the like displayed on the display device 12. . Furthermore, although not shown in FIG. 13, the database creation device 7 can be incorporated in the information processing device 13.

図13の視線検出システム14で用いる眼球特徴データベース121を作成する処理は、図5の処理と同じでよく、まず、表示装置12の表示面1201に設定した複数の注視点PG1〜PG5のそれぞれを注視している対象人物9の画像を取得する(ステップS11〜S13)。この際、表示装置12の表示面1201には、例えば、注視点PG1のみが表示された画像、注視点PG2のみが表示された画像、注視点PG3のみが表示された画像、注視点PG4のみが表示された画像、注視点PG5のみが表示された画像を順次表示する。   The process for creating the eyeball feature database 121 used in the line-of-sight detection system 14 in FIG. 13 may be the same as the process in FIG. 5. First, each of the plurality of gazing points PG1 to PG5 set on the display surface 1201 of the display device 12 is selected. An image of the target person 9 who is gazing is acquired (steps S11 to S13). At this time, the display surface 1201 of the display device 12 includes, for example, an image in which only the gazing point PG1 is displayed, an image in which only the gazing point PG2 is displayed, an image in which only the gazing point PG3 is displayed, and only the gazing point PG4. The displayed image and the image on which only the gazing point PG5 is displayed are sequentially displayed.

複数枚の画像を取得した後、データベース作成装置7は、取得した画像のそれぞれで右眼及び左眼の眼球の特徴量を算出するとともに瞳孔間距離を算出して(ステップS14,S15)、眼球特徴データベース121に登録する(ステップS16)。   After acquiring a plurality of images, the database creation device 7 calculates the feature amount of the right and left eyeballs for each of the acquired images and calculates the interpupillary distance (steps S14 and S15). Register in the feature database 121 (step S16).

作成した眼球特徴データベース121は、メモリカードや光ディスク等の可搬型記録媒体、或いは伝送ケーブルを介して視線検出装置1(情報処理装置13)に格納する。視線検出システム14においても、眼球特徴データベース121を格納した視線検出処理1は、図8〜図10に示した処理を行う。   The created eyeball feature database 121 is stored in the line-of-sight detection device 1 (information processing device 13) via a portable recording medium such as a memory card or an optical disc, or a transmission cable. Also in the line-of-sight detection system 14, the line-of-sight detection process 1 storing the eyeball feature database 121 performs the processes shown in FIGS. 8 to 10.

図13の視線検出システム14は、例えば、視線入力等に利用可能である。対象人物9が表示装置12の表示面1201に表示された所定のオブジェクトを注視した場合に、視線検出装置1が視線を検出することで、情報処理装置13において、対象人物9が注視しているオブジェクトと対応付けられた処理を実行することが可能となる。   The line-of-sight detection system 14 in FIG. 13 can be used for line-of-sight input, for example. When the target person 9 gazes at a predetermined object displayed on the display surface 1201 of the display device 12, the target person 9 is gazing at the information processing apparatus 13 by detecting the line of sight. It is possible to execute processing associated with the object.

また、図13の視線検出システム14は、例えば、デジタルサイネージ等の各種情報を提供する装置において対象人物9がどの情報に興味を示したか等の調査に利用可能である。   Further, the line-of-sight detection system 14 of FIG. 13 can be used to investigate which information the target person 9 is interested in, for example, an apparatus that provides various types of information such as digital signage.

図14は、視線検出システムの変形例を示す図である。
本実施形態の視線検出装置1は、上記の視線検出システムに限らず、例えば、図14の(a)に示すように、眼球特徴データベース121が視線検出装置1とは別の管理サーバ15に格納されている視線検出システム17にも適用可能である。この種の視線検出システム17は、視線検出装置1と管理サーバ15とがインターネット等の通信ネットワーク16で通信可能に接続されている。なお、図14の(a)には示していないが、視線検出装置1には、視線センサ2、入力装置3、スピーカや表示装置12等の出力装置4が接続されている。
FIG. 14 is a diagram illustrating a modification of the line-of-sight detection system.
The line-of-sight detection device 1 according to the present embodiment is not limited to the above-described line-of-sight detection system. For example, as shown in FIG. 14A, the eyeball feature database 121 is stored in a management server 15 separate from the line-of-sight detection device 1. The present invention can also be applied to the line-of-sight detection system 17 being used. In this type of line-of-sight detection system 17, the line-of-sight detection device 1 and the management server 15 are communicably connected via a communication network 16 such as the Internet. Although not shown in FIG. 14A, the visual line detection device 1 is connected to the visual sensor 2, the input device 3, and the output device 4 such as a speaker and a display device 12.

更に、視線検出装置1を適用した視線検出システム17は、図14の(b)に示すように、複数の車両8(8A,8B)のそれぞれに設置された視線検出装置1が、管理サーバ15に格納された眼球特徴データベース121を共有するシステムであってもよい。この種の視線検出システム17では、例えば、各車両8の視線検出装置1に無線通信部とアンテナ804とを接続し、通信ネットワーク16を介して各視線検出装置1と眼球特徴データベース121との通信を可能にする。また、図14の(b)に示した視線検出システム17では、各視線検出装置1で検出した対象人物の視線情報を管理サーバ15の視線履歴1501に転送することが可能である。このため、眼球特徴データベース121を複数の視線検出装置1で共有することが可能であるとともに、管理装置15により複数の対象人物の視線を一括管理することが可能となる。更に、図示は省略するが、図14の(b)に示した視線検出システム17では、例えば、上記の較正パラメータ作成処理を管理サーバ上で行ってもよい。この場合、視線検出装置1は、例えば、赤外線カメラ201で撮像した画像と、視線検出装置1が設置された車両8の車種情報とを管理サーバ15に送信し、管理サーバ15に較正パラメータを算出させる。その後、視線検出装置1は、管理サーバ15から較正パラメータを取得し、当該較正パラメータに基づいて運転者(対象人物9)の視線を算出する。   Furthermore, the line-of-sight detection system 17 to which the line-of-sight detection apparatus 1 is applied includes a line-of-sight detection apparatus 1 installed in each of the plurality of vehicles 8 (8A, 8B) as shown in FIG. The eyeball feature database 121 stored in the system may be shared. In this type of gaze detection system 17, for example, a radio communication unit and an antenna 804 are connected to the gaze detection device 1 of each vehicle 8, and communication between each gaze detection device 1 and the eyeball feature database 121 via the communication network 16. Enable. Further, in the line-of-sight detection system 17 shown in FIG. 14B, the line-of-sight information of the target person detected by each line-of-sight detection device 1 can be transferred to the line-of-sight history 1501 of the management server 15. Therefore, the eyeball feature database 121 can be shared by the plurality of eye gaze detection devices 1 and the gaze of a plurality of target persons can be collectively managed by the management device 15. Furthermore, although illustration is omitted, in the line-of-sight detection system 17 shown in FIG. 14B, for example, the calibration parameter creation processing described above may be performed on the management server. In this case, the line-of-sight detection device 1 transmits, for example, the image captured by the infrared camera 201 and the vehicle type information of the vehicle 8 in which the line-of-sight detection device 1 is installed to the management server 15 and calculates the calibration parameters to the management server 15. Let Thereafter, the line-of-sight detection device 1 acquires a calibration parameter from the management server 15 and calculates the line of sight of the driver (target person 9) based on the calibration parameter.

また、図6、図13、及び図14に示した視線検出システムは、本実施形態に係る視線検出装置1の適用例に過ぎない。すなわち、視線検出装置1は、これらの視線検出システムに限らず、瞳孔−角膜反射法を利用した種々の視線検出システムに適用可能である。例えば、視線検出装置1は、店舗等で対象人物(顧客)が店舗内に陳列されている商品のうちのどの商品に興味を示しているか等の情報を収集する視線検出システムにも適用可能である。   In addition, the line-of-sight detection system illustrated in FIGS. 6, 13, and 14 is merely an application example of the line-of-sight detection apparatus 1 according to the present embodiment. That is, the line-of-sight detection apparatus 1 is not limited to these line-of-sight detection systems, and can be applied to various line-of-sight detection systems using the pupil-corneal reflection method. For example, the line-of-sight detection apparatus 1 can be applied to a line-of-sight detection system that collects information such as which products the target person (customer) is displaying in the store, such as which products are interested in the store. is there.

また、図1に示した視線検出装置1の機能的構成及び視線検出装置1が行う処理は、それぞれ、一例に過ぎない。本実施形態に係る視線検出装置1は、例えば、人感センサ等で所定の位置に対象人物9が停留したことを検出したことを契機に、較正パラメータ決定処理を開始するものであってもよい。また、本実施形態に係る視線検出装置1を車両8に設置する場合、例えば、対象人物9(運転者)がエンジンを始動させたことを契機に較正パラメータ決定処理を開始し、対象人物9がエンジンを停止させたことを契機に視線検出処理を終了するようにしてもよい。   Further, the functional configuration of the line-of-sight detection device 1 shown in FIG. 1 and the processing performed by the line-of-sight detection device 1 are merely examples. The line-of-sight detection device 1 according to the present embodiment may start the calibration parameter determination process when, for example, a human sensor or the like detects that the target person 9 has stopped at a predetermined position. . Moreover, when installing the gaze detection device 1 according to the present embodiment in the vehicle 8, for example, the calibration parameter determination process is started when the target person 9 (driver) starts the engine, and the target person 9 The line-of-sight detection process may be terminated when the engine is stopped.

[第2の実施形態]
本実施形態では、視線検出装置1において対象人物の顔の向きを考慮して眼球の特徴量を補正し、較正パラメータを決定する処理方法について説明する。
[Second Embodiment]
In the present embodiment, a processing method for correcting the eyeball feature amount in consideration of the face direction of the target person and determining the calibration parameter in the line-of-sight detection device 1 will be described.

なお、本実施形態に係る視線検出装置1の機能的構成は、図1に示した構成でよい。また、本実施形態に係る視線検出装置1に格納される眼球特徴データベース121は、例えば、図2に示した構成でよい。ただし、本実施形態に係る眼球特徴データベース121を作成する際には、人物が赤外線カメラ201に顔を正対させた状態で注視点を注視している画像を取得し、当該画像から算出した眼球の特徴量及び瞳孔間距離を眼球特徴データベース121に登録する。   Note that the functional configuration of the visual line detection device 1 according to the present embodiment may be the configuration illustrated in FIG. Further, the eyeball feature database 121 stored in the line-of-sight detection device 1 according to the present embodiment may have the configuration illustrated in FIG. 2, for example. However, when the eyeball feature database 121 according to the present embodiment is created, an image in which a person is gazing at a gazing point with the face facing the infrared camera 201 is acquired, and the eyeball calculated from the image is acquired. Are registered in the eyeball feature database 121.

本実施形態に係る視線検出装置1は、図8に示した較正パラメータ決定処理(ステップS1)、及び視線検出処理(ステップS2)を行う。なお、本実施形態に係る視線検出装置1は、較正パラメータ決定処理として、図15及び図16に示した処理を行う。   The line-of-sight detection apparatus 1 according to the present embodiment performs the calibration parameter determination process (step S1) and the line-of-sight detection process (step S2) shown in FIG. Note that the line-of-sight detection device 1 according to the present embodiment performs the processing illustrated in FIGS. 15 and 16 as the calibration parameter determination processing.

図15は、第2の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。図16は、眼球の特徴量を補正する処理の内容を説明するフローチャートである。なお、図15及び図16のフローチャートの処理ブロックのうち、図9のフローチャートと同じ処理を行うブロックについては、図9と同じステップ番号(例えばS101,S102等)を付している。   FIG. 15 is a flowchart for explaining the contents of the calibration parameter determination process according to the second embodiment. FIG. 16 is a flowchart for explaining the content of processing for correcting the feature amount of the eyeball. Of the processing blocks in the flowcharts of FIGS. 15 and 16, blocks that perform the same processes as those in the flowchart of FIG. 9 are given the same step numbers (eg, S101, S102, etc.) as in FIG.

本実施形態の較正パラメータ決定処理において、視線検出装置1は、まず、対象人物が1個の注視点を注視している状態で撮像した、対象人物の眼球を含む画像を取得する(ステップS101)。ステップS101の処理は、画像取得部101と、注視指示部102とが行う。ステップS101において、画像取得部101及び注視指示部102は、それぞれ、第1の実施形態で説明した処理を行う。注視指示部102は、出力装置4を用いて対象人物に1個の注視点を注視させる。一方、画像取得部101は、赤外線カメラ201に1個の注視点を注視している対象人物の眼球を含む画像を撮像させ、撮像した画像を取得する。更に、画像取得部101は、取得した画像を特徴量算出部103に送信する。   In the calibration parameter determination process of the present embodiment, the line-of-sight detection device 1 first acquires an image including the eyeball of the target person that is captured while the target person is gazing at one gaze point (step S101). . The process of step S101 is performed by the image acquisition unit 101 and the gaze instruction unit 102. In step S101, the image acquisition unit 101 and the gaze instruction unit 102 each perform the processing described in the first embodiment. The gaze instruction unit 102 causes the target person to gaze at one gaze point using the output device 4. On the other hand, the image acquisition unit 101 causes the infrared camera 201 to capture an image including the eyeball of the target person who is gazing at one gazing point, and acquires the captured image. Further, the image acquisition unit 101 transmits the acquired image to the feature amount calculation unit 103.

対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS102)。特徴量算出部103は、第1の実施形態で説明したとおり、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心を含む画素及び角膜反射の中心を含む画素を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。   When the image of the target person is acquired, the line-of-sight detection device 1 then calculates the feature amount of the eyeball by extracting the pupil and corneal reflection from the acquired image in the feature amount calculation unit 103 (step S102). As described in the first embodiment, the feature amount calculation unit 103 extracts a pixel including the center of the pupil and a pixel including the center of corneal reflection in each of the right eye and the left eye in the image, and the center of corneal reflection is extracted. The relative position of the center of the pupil viewed from the above is calculated as the feature amount of the eyeball.

特徴量算出部103は、算出した眼球の特徴量を処理切替部104に送信する。視線検出装置1が行っている処理が較正パラメータ決定処理である場合、処理切替部104は、第1の実施形態で説明したとおり、眼球の特徴量を特徴量補正部105に送信する。   The feature amount calculation unit 103 transmits the calculated feature amount of the eyeball to the process switching unit 104. When the process performed by the line-of-sight detection device 1 is the calibration parameter determination process, the process switching unit 104 transmits the feature quantity of the eyeball to the feature quantity correction unit 105 as described in the first embodiment.

その後、視線検出装置1は、特徴量補正部105において、眼球の特徴量を補正する処理(ステップS110)を行う。ステップS110において、特徴量補正部105は、まず、右眼の特徴量と左眼の特徴量とに基づいて顔の向きを推定する。そして、推定した顔の向きが赤外線カメラ201と正対していない場合、特徴量補正部105は、右眼及び左眼の特徴量が顔の向きが赤外線カメラ201と正対したときの特徴量となるよう特徴量を補正する。続けて、特徴量補正部105は、第1の実施形態で説明したステップS103〜S105の処理、すなわち画像上の瞳孔間距離と、眼球特徴データベース121の瞳孔間距離とが異なる場合の眼球の特徴量を補正する処理を行う。特徴量補正部105は、補正後の眼球の特徴量を特徴決定部106に送信する。なお、ステップS110において眼球の特徴量を補正しなかった場合、特徴量補正部105は、特徴量算出部103で算出した眼球の特徴量を特徴決定部106に送信する。   Thereafter, the line-of-sight detection apparatus 1 performs a process of correcting the feature quantity of the eyeball (step S110) in the feature quantity correction unit 105. In step S110, the feature amount correcting unit 105 first estimates the face orientation based on the feature amount of the right eye and the feature amount of the left eye. When the estimated face orientation does not face the infrared camera 201, the feature amount correction unit 105 determines that the feature amount of the right eye and the left eye is the feature amount when the face orientation faces the infrared camera 201. The feature amount is corrected so that Subsequently, the feature amount correcting unit 105 performs the processing in steps S103 to S105 described in the first embodiment, that is, the feature of the eyeball when the interpupillary distance on the image is different from the interpupillary distance in the eyeball feature database 121. Perform processing to correct the amount. The feature amount correction unit 105 transmits the corrected feature amount of the eyeball to the feature determination unit 106. If the feature amount of the eyeball is not corrected in step S110, the feature amount correction unit 105 transmits the feature amount of the eyeball calculated by the feature amount calculation unit 103 to the feature determination unit 106.

ステップS110の処理を終えると、視線検出装置1は、次に、特徴決定部106において、眼球特徴データベース121を参照して較正に用いる眼球特徴を決定する(ステップS106)。特徴決定部106は、眼球特徴データベース121に登録された眼球の特徴量のうちのステップS101で指定した注視点を注視したときの眼球の特徴量を参照する。そして、特徴決定部106は、特徴量補正部105から受け取った眼球の特徴量と同一の特徴量含む特徴量の組を較正に用いる眼球特徴に決定する。特徴決定部106は、決定した眼球特徴(ある識別子と対応付けられた眼球の特徴量の組)をパラメータ算出部107に送信する。   When the processing of step S110 is completed, the line-of-sight detection device 1 next determines an eyeball feature to be used for calibration with reference to the eyeball feature database 121 in the feature determination unit 106 (step S106). The feature determination unit 106 refers to the feature amount of the eyeball when gazing at the gazing point designated in step S <b> 101 among the feature amounts of the eyeball registered in the eyeball feature database 121. Then, the feature determination unit 106 determines a set of feature amounts including the same feature amount as the feature amount of the eyeball received from the feature amount correction unit 105 as an eyeball feature used for calibration. The feature determination unit 106 transmits the determined eyeball feature (a set of eyeball feature amounts associated with a certain identifier) to the parameter calculation unit 107.

ステップS106の処理を終えると、視線検出装置1は、パラメータ算出部107において、決定した眼球特徴に基づいて較正パラメータを算出する(ステップS107)。パラメータ算出部107は、瞳孔−角膜反射法における既知の算出方法に従って較正パラメータを算出し、算出した較正パラメータを現在の対象人物の較正パラメータに決定する。ステップS107の処理を終えると、パラメータ算出部107は、決定した較正パラメータを視線算出部108に送信するとともに、現在の対象人物についての較正パラメータが決定したことを処理切替部104に通知する。これにより、視線検出装置1における較正パラメータ決定処理が終了する。   When the process of step S106 is completed, the line-of-sight detection device 1 calculates a calibration parameter based on the determined eyeball feature in the parameter calculation unit 107 (step S107). The parameter calculation unit 107 calculates a calibration parameter according to a known calculation method in the pupil-corneal reflection method, and determines the calculated calibration parameter as the calibration parameter of the current target person. When the process of step S107 is completed, the parameter calculation unit 107 transmits the determined calibration parameter to the line-of-sight calculation unit 108 and notifies the process switching unit 104 that the calibration parameter for the current target person has been determined. Thereby, the calibration parameter determination process in the line-of-sight detection device 1 ends.

次に、図16を参照して、特徴量補正部105が行うステップS110の眼球の特徴量を補正する処理について説明する。   Next, with reference to FIG. 16, the process of correcting the feature quantity of the eyeball in step S110 performed by the feature quantity correction unit 105 will be described.

ステップS110の処理において、特徴量補正部105は、まず、眼球の特徴量に基づいて対象人物の顔の向きを推定し(ステップS111)、対象人物の顔が赤外線カメラ201に正対しているか否かを判定する(ステップS112)。ステップS111において、特徴量補正部105は、例えば、右眼の特徴量と左眼の特徴量との大小関係に基づいて、顔の向きを推定する。右眼の特徴量と左眼の特徴量とが略同一である場合、特徴量補正部105は、対象人物の顔が赤外線カメラ201に正対していると推定する。また、右眼の特徴量と左眼の特徴量との差の絶対値が閾値以上である場合、特徴量補正部105は、顔の向きが右方又は左方に傾いていると推定する。   In the process of step S110, the feature amount correcting unit 105 first estimates the orientation of the face of the target person based on the feature quantity of the eyeball (step S111), and whether or not the face of the target person faces the infrared camera 201. Is determined (step S112). In step S <b> 111, the feature amount correction unit 105 estimates the face orientation based on the magnitude relationship between the right eye feature amount and the left eye feature amount, for example. When the feature amount of the right eye and the feature amount of the left eye are substantially the same, the feature amount correction unit 105 estimates that the target person's face is directly facing the infrared camera 201. When the absolute value of the difference between the right eye feature amount and the left eye feature amount is equal to or greater than the threshold value, the feature amount correction unit 105 estimates that the face is tilted to the right or left.

ステップS111において顔の向きを推定した結果、顔が赤外線カメラ201に正対していない場合(ステップS112;No)、特徴量補正部105は、次に、顔の向きに基づいて右眼又は左眼の眼球の特徴量を補正する(ステップS113)。ステップS103において、特徴量補正部105は、ステップS111で推定した顔の向きに基づいて、右眼の特徴量と左眼の特徴量とが略同一になるよう、右眼又は左眼の、角膜反射の中心位置と瞳孔の中心位置とを補正する。ステップS113の後、特徴量補正部105は、補正後の右眼の瞳孔の中心位置及び左眼の瞳孔の中心位置に基づいて、瞳孔間距離を算出する(ステップS114)。   As a result of estimating the orientation of the face in step S111, if the face is not directly facing the infrared camera 201 (step S112; No), the feature amount correcting unit 105 next selects the right eye or the left eye based on the face orientation. The feature amount of the eyeball is corrected (step S113). In step S103, the feature amount correction unit 105 determines whether the right eye feature amount and the left eye feature amount are substantially the same based on the face orientation estimated in step S111. The center position of reflection and the center position of the pupil are corrected. After step S113, the feature amount correcting unit 105 calculates the interpupillary distance based on the corrected center position of the right eye pupil and the center position of the left eye pupil (step S114).

一方、顔が赤外線カメラ201に正対している場合(ステップS112;Yes)、特徴量補正部105は、ステップS113の処理をスキップしてステップS114の処理を行う。ステップS113の処理をスキップした場合、特徴量補正部105は、顔の向きの推定に用いた右眼の瞳孔の中心位置及び左眼の瞳孔の中心位置に基づいて、瞳孔間距離を算出する。   On the other hand, when the face is directly facing the infrared camera 201 (step S112; Yes), the feature amount correction unit 105 skips the process of step S113 and performs the process of step S114. When the process of step S113 is skipped, the feature amount correcting unit 105 calculates the interpupillary distance based on the center position of the right eye pupil and the center position of the left eye pupil used for estimating the face orientation.

瞳孔間距離を算出すると、特徴量補正部105は、次に、算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致するか否かを判定する(ステップS104)。瞳孔間距離が一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて、眼球の特徴量を補正する(ステップS105)。ステップS105において特徴量補正部105が行う処理は、第1の実施形態で説明したとおりである。ステップS105の後、特徴量補正部105は、補正後の眼球の特徴量を特徴決定部106に送信して眼球の特徴量を補正する処理を終了する。   After calculating the interpupillary distance, the feature amount correcting unit 105 next determines whether or not the calculated interpupillary distance matches the interpupillary distance in the eyeball feature database 121 (step S104). When the interpupillary distances do not match (step S104; No), the feature amount correcting unit 105 corrects the feature amount of the eyeball based on the ratio of the interpupillary distances (step S105). The processing performed by the feature amount correction unit 105 in step S105 is as described in the first embodiment. After step S105, the feature amount correcting unit 105 transmits the corrected feature amount of the eyeball to the feature determining unit 106 and ends the process of correcting the feature amount of the eyeball.

一方、瞳孔間距離が一致した場合(ステップS104;Yes)、特徴量補正部105は、ステップS105をスキップし、眼球の特徴量を特徴決定部106に送信して眼球の特徴量を補正する処理を終了する。瞳孔間距離が一致した場合、特徴量補正部105は、特徴量抽出部103において抽出した眼球の特徴量、又はステップS113で補正した眼球の特徴量を特徴決定部106に出力する。   On the other hand, when the interpupillary distances match (step S104; Yes), the feature amount correction unit 105 skips step S105 and transmits the eyeball feature amount to the feature determination unit 106 to correct the eyeball feature amount. Exit. When the interpupillary distances match, the feature amount correction unit 105 outputs the feature amount of the eyeball extracted by the feature amount extraction unit 103 or the feature amount of the eyeball corrected in step S113 to the feature determination unit 106.

図17は、顔の向きと眼球の特徴量との関係を説明する図である。
図17の(a)には、顔の向きV1が赤外線カメラ201の方向であり(すなわち顔が赤外線カメラ201と正対しており)、かつ視線の方向V2が赤外線カメラ201の方向である場合の、眼球の特徴量と、撮像面203における瞳孔間距離とを示している。この場合、赤外線カメラ201(撮像面203)から見た右眼における角膜反射601Rの中心から瞳孔602Rの中心までの距離PLと、左眼における角膜反射601Lの中心から瞳孔602Lまでの距離PRとは、略同一の値(PR≒PL)となる。
FIG. 17 is a diagram for explaining the relationship between the orientation of the face and the feature amount of the eyeball.
FIG. 17A shows a case where the face direction V1 is the direction of the infrared camera 201 (that is, the face is facing the infrared camera 201) and the line-of-sight direction V2 is the direction of the infrared camera 201. 3 shows the feature amount of the eyeball and the inter-pupil distance on the imaging surface 203. In this case, the distance PL from the center of the corneal reflection 601R in the right eye to the center of the pupil 602R and the distance PR from the center of the corneal reflection 601L to the pupil 602L in the left eye viewed from the infrared camera 201 (imaging surface 203). The values are substantially the same (PR≈PL).

図17の(b)には、顔の向きV1が赤外線カメラ201の方向であり、かつ視線の方向V2が赤外線カメラ201の方向である場合の、眼球の特徴量と、撮像面における瞳孔間距離とを示している。そのため、図17の(b)の場合も、右眼における角膜反射から瞳孔までの距離PLと、左眼における角膜反射から瞳孔までの距離PRとは、略同一の値(PR≒PL)となる。   In FIG. 17B, the feature amount of the eyeball and the inter-pupil distance on the imaging surface when the face direction V1 is the direction of the infrared camera 201 and the line-of-sight direction V2 is the direction of the infrared camera 201. It shows. Therefore, also in the case of FIG. 17B, the distance PL from the corneal reflection in the right eye to the pupil and the distance PR from the corneal reflection in the left eye to the pupil are substantially the same value (PR≈PL). .

このように、顔が赤外線カメラ201と正対している場合、右眼における角膜反射601Rから瞳孔602Rまでの距離PRと、左眼における角膜反射601Lから瞳孔602Lまで距離PLとは、略同一の値(PR≒PL)となる。   Thus, when the face is directly facing the infrared camera 201, the distance PR from the corneal reflection 601R to the pupil 602R in the right eye and the distance PL from the corneal reflection 601L to the pupil 602L in the left eye are substantially the same value. (PR≈PL).

ただし、図17の(b)では、赤外線カメラ201(撮像面203)から眼球(顔)までの距離が、図17の(a)における赤外線カメラ201から眼球までの距離よりも長くなっている。そのため、図17の(a)及び(b)において実際の瞳孔間距離PDが同一であっても、(b)の場合の撮像面203における瞳孔間距離D2は、(a)の場合の撮像面203における瞳孔間距離D1よりも小さくなる(D1>D2)。   However, in FIG. 17B, the distance from the infrared camera 201 (imaging surface 203) to the eyeball (face) is longer than the distance from the infrared camera 201 to the eyeball in FIG. Therefore, even if the actual inter-pupil distance PD is the same in FIGS. 17A and 17B, the inter-pupil distance D2 in the imaging surface 203 in the case of (b) is the imaging surface in the case of (a). It becomes smaller than the inter-pupil distance D1 in 203 (D1> D2).

これに対し、図17の(c)には、顔の向きV1が赤外線カメラ201とは異なる方向を向いており、かつ視線の方向V2が赤外線カメラ201の方向である場合の、眼球の特徴量と、撮像面203における瞳孔間距離とを示している。図17の(c)では、赤外線カメラ201から右眼までの距離が赤外線カメラ201から左眼までの距離よりも長くなっている。そのため、右眼における角膜反射601Rの中心から瞳孔602Rの中心までの距離PRは、左眼における角膜反射601Lの中心から瞳孔602Lの中心までの距離PLよりも短くなる(PR<PL)。更に、図17の(c)においては、対象人物の顔の向きV1が赤外線カメラ201とは異なる方向を向いている。そのため、赤外線カメラ201(撮像面203)から見た瞳孔間距離D3は、実際の瞳孔間距離PDと、赤外線カメラ201(撮像面203)から眼球までの距離とに基づいて算出される瞳孔間距離よりも短くなる。一方、本実施形態で用いる眼球特徴データベース121における眼球の特徴量及び瞳孔間距離は、顔が赤外線カメラ201に正対している状態で撮像した画像に基づいて算出された値である。したがって、顔が赤外線カメラ201に正対していない場合、画像から算出した眼球の特徴量と、眼球特徴データベース121の眼球の特徴量とを正しく比較するには、算出した特徴量を顔が赤外線カメラ201に正対した状態の特徴量に補正する必要がある。   On the other hand, in FIG. 17C, the feature amount of the eyeball when the face direction V1 is in a different direction from the infrared camera 201 and the line-of-sight direction V2 is the direction of the infrared camera 201 is shown. And the interpupillary distance on the imaging surface 203. In FIG. 17C, the distance from the infrared camera 201 to the right eye is longer than the distance from the infrared camera 201 to the left eye. Therefore, the distance PR from the center of the corneal reflection 601R to the center of the pupil 602R in the right eye is shorter than the distance PL from the center of the corneal reflection 601L to the center of the pupil 602L in the left eye (PR <PL). Further, in FIG. 17C, the face direction V <b> 1 of the target person is facing a direction different from that of the infrared camera 201. Therefore, the interpupillary distance D3 viewed from the infrared camera 201 (imaging plane 203) is calculated based on the actual interpupillary distance PD and the distance from the infrared camera 201 (imaging plane 203) to the eyeball. Shorter than. On the other hand, the feature amount of the eyeball and the interpupillary distance in the eyeball feature database 121 used in the present embodiment are values calculated based on an image captured with the face facing the infrared camera 201. Therefore, when the face is not directly facing the infrared camera 201, in order to correctly compare the feature amount of the eyeball calculated from the image with the feature amount of the eyeball in the eyeball feature database 121, the calculated feature amount is compared with the infrared camera. It is necessary to correct the feature amount in a state of directly facing 201.

図18は、顔がカメラと正対していない場合の眼球の特徴量の補正方法を説明する図である。   FIG. 18 is a diagram for explaining a method for correcting the feature amount of the eyeball when the face is not directly facing the camera.

図18には、顔が赤外線カメラ201と正対していない場合の例として、撮像面203から右眼までの距離が、撮像面203から左眼までの距離よりも長い場合の眼球の特徴量を示している。この場合、撮像面203における右眼の角膜反射601Rの中心KRxから瞳孔602Rの中心PRxまでの距離は、撮像面203における左眼の角膜反射601Lの中心KLxから瞳孔602Lの中心PLxまでの距離Lよりも短くなる。このため、特徴量補正部105は、撮像面203における右眼の角膜反射601Rの中心から瞳孔602Rの中心までの距離が左眼の距離Lと一致するよう、角膜反射601Rの位置及び瞳孔602Rの位置を補正する(図16のステップS113)。すなわち、ステップS113において、特徴量補正部105は、下記式(2)を満たす撮像面203上の点KRx’,PRx’を算出する。   In FIG. 18, as an example of the case where the face is not directly facing the infrared camera 201, the feature amount of the eyeball when the distance from the imaging surface 203 to the right eye is longer than the distance from the imaging surface 203 to the left eye. Show. In this case, the distance from the center KRx of the corneal reflection 601R of the right eye on the imaging surface 203 to the center PRx of the pupil 602R is the distance L from the center KLx of the corneal reflection 601L of the left eye on the imaging surface 203 to the center PLx of the pupil 602L. Shorter than. Therefore, the feature amount correcting unit 105 determines the position of the corneal reflection 601R and the pupil 602R so that the distance from the center of the corneal reflection 601R of the right eye on the imaging surface 203 to the center of the pupil 602R matches the distance L of the left eye. The position is corrected (step S113 in FIG. 16). That is, in step S113, the feature amount correction unit 105 calculates points KRx ′ and PRx ′ on the imaging surface 203 that satisfy the following formula (2).

KRx’−PRx’=KLx−PLx (2)     KRx'-PRx '= KLx-PLx (2)

式(2)において、点KRx’及び点PRx’は、それぞれ、対象人物が左眼の位置を基準として顔を赤外線カメラ201と正対させた場合の、撮像面203上における仮想的な右眼の角膜反射601R’の中心及び瞳孔602R’の中心である。   In the equation (2), the point KRx ′ and the point PRx ′ are the virtual right eye on the imaging surface 203 when the target person faces the infrared camera 201 directly with the position of the left eye as a reference. The center of the corneal reflection 601R ′ and the center of the pupil 602R ′.

右眼の角膜反射601Rの位置及び瞳孔602Rの位置を補正する場合、図18に示すように、右眼の角膜反射601Rの中心Pxから瞳孔602Rの中心Kxまでの距離が左眼の距離Lと一致する仮想平面205を設定する。ここで、赤外線カメラ201のレンズ204から撮像面203までの距離を距離h、レンズ204から仮想平面205までの距離を距離Hとすると、2つの距離h,Hの比h:Hは、下記数(3−1)で表される。   When correcting the position of the corneal reflection 601R of the right eye and the position of the pupil 602R, as shown in FIG. 18, the distance from the center Px of the corneal reflection 601R of the right eye to the center Kx of the pupil 602R is the distance L of the left eye. A matching virtual plane 205 is set. Here, when the distance from the lens 204 of the infrared camera 201 to the imaging surface 203 is a distance h and the distance from the lens 204 to the virtual plane 205 is a distance H, the ratio h: H of the two distances h and H is the following number. It is represented by (3-1).

h:H=(KRx−PRx):(KLx−PLx) (3−1)     h: H = (KRx-PRx): (KLx-PLx) (3-1)

したがって、レンズ204から仮想平面205までの距離Hは、下記数(3−2)により算出される。   Therefore, the distance H from the lens 204 to the virtual plane 205 is calculated by the following number (3-2).

H=d×{(KLx−PLx)/(KRx−PRx)} (3−2)     H = d × {(KLx−PLx) / (KRx−PRx)} (3-2)

一方、2つの距離h,Hのh;Hは、撮像面203の中心Oxと、撮像面203における補正前の右眼の角膜反射601Rの位置KRxと、撮像面203における仮想的な右眼の角膜反射601R’の位置KRx’とを用いると、下記式(4−1)で表される。   On the other hand, h of two distances h and H; H is the center Ox of the imaging surface 203, the position KRx of the corneal reflection 601R of the right eye before correction on the imaging surface 203, and the virtual right eye on the imaging surface 203. When the position KRx ′ of the corneal reflection 601R ′ is used, it is represented by the following formula (4-1).

h:H=(KRx−Ox):(KRx’−Ox) (4−1)     h: H = (KRx-Ox): (KRx'-Ox) (4-1)

したがって、レンズ204から仮想平面205までの距離Hがわかれば、下記数(4−2)に基づいて、撮像面203における仮想的な右眼の角膜反射601R’の位置KRx’を算出することが可能となる。   Therefore, if the distance H from the lens 204 to the virtual plane 205 is known, the position KRx ′ of the virtual right-eye corneal reflection 601R ′ on the imaging surface 203 can be calculated based on the following number (4-2). It becomes possible.

(KRx’−Ox)=(KRx−Ox)×(H/h) (4−2)     (KRx′−Ox) = (KRx−Ox) × (H / h) (4-2)

また、2つの距離h,Hのh;Hは、撮像面203の中心Oxと、撮像面203における補正前の右眼の瞳孔602Rの位置PRxと、撮像面203における仮想的な右眼の瞳孔602R’の位置PRx’とを用いると、下記式(5−1)で表される。   The two distances h, H of h; H are the center Ox of the imaging surface 203, the position PRx of the right-eye pupil 602R before correction on the imaging surface 203, and the virtual right-eye pupil on the imaging surface 203. When the position PRx ′ of 602R ′ is used, it is represented by the following formula (5-1).

h:H=(PRx−Ox):(PRx’−Ox) (5−1)     h: H = (PRx−Ox): (PRx′−Ox) (5-1)

したがって、レンズ204から仮想平面205までの距離Hがわかれば、下記数(5−2)に基づいて、撮像面203における仮想的な右眼の瞳孔602R’の位置PRx’を算出することが可能となる。   Therefore, if the distance H from the lens 204 to the virtual plane 205 is known, the position PRx ′ of the virtual right-eye pupil 602R ′ on the imaging surface 203 can be calculated based on the following number (5-2). It becomes.

(PRx’−Ox)=(PRx−Ox)×(H/h) (5−2)     (PRx′−Ox) = (PRx−Ox) × (H / h) (5-2)

式(3−2)、式(4−2)、及び式(5−2)に基づいて右眼の特徴量を補正した場合、特徴量補正部105は、補正後の眼球の特徴量、すなわち撮像面203における点PLxと点PRx’との位置関係に基づいて瞳孔間距離を算出する(ステップS114)。そして、算出した瞳孔間距離と眼球特徴テーブルの瞳孔間距離とが一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて眼球の特徴量を再度補正する(ステップS105)。   When the feature amount of the right eye is corrected based on Expression (3-2), Expression (4-2), and Expression (5-2), the feature amount correction unit 105, that is, the corrected eyeball feature amount, The interpupillary distance is calculated based on the positional relationship between the point PLx and the point PRx ′ on the imaging surface 203 (step S114). If the calculated interpupillary distance does not match the interpupillary distance in the eyeball feature table (step S104; No), the feature amount correcting unit 105 corrects the eyeball feature amount again based on the interpupillary distance ratio. (Step S105).

上記の眼球の特徴量を補正する処理を行うことで、画像から算出した眼球の特徴量は、顔の向き及び瞳孔間距離が眼球特徴テーブル121の作成時における人物の顔の向き及び瞳孔間距離と一致した特徴量となる。そのため、本実施形態によれば、顔の向きに応じた眼球の特徴量(角膜反射と瞳孔との距離)及び瞳孔間距離の変化により誤った眼球特徴を抽出することを抑制することが可能となり、視線検出の精度をより高くすることが可能となる。   By performing the process of correcting the feature amount of the eyeball, the feature amount of the eyeball calculated from the image is the face orientation and the interpupillary distance. When the eyeball feature table 121 is created, the face orientation of the person and the interpupillary distance The feature amount is consistent with. Therefore, according to the present embodiment, it is possible to suppress extraction of erroneous eyeball features due to changes in the eyeball feature amount (the distance between the corneal reflection and the pupil) and the interpupillary distance according to the face orientation. Thus, it is possible to further increase the accuracy of line-of-sight detection.

なお、図15及び図16は、本実施形態の視線検出装置1が行う較正パラメータ決定処理の一例に過ぎない。本実施形態の視線検出装置1が行う較正パラメータ決定処理は、適宜変更可能であり、図15及び図16に示した手順に限らず、一部の処理の内容を変更したものであってもよい。   15 and 16 are only examples of calibration parameter determination processing performed by the line-of-sight detection device 1 of the present embodiment. The calibration parameter determination process performed by the line-of-sight detection apparatus 1 according to the present embodiment can be changed as appropriate, and is not limited to the procedure shown in FIGS. .

また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、眼球特徴データベースに限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。   In addition, as described above, information on eyeball features including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the eyeball feature database, and each can be identified. It may be registered (stored) in the storage unit in another manner.

また、本実施形態の視線検出装置1は、第1の実施形態の視線検出装置1と同様、画像から対象人物の視線を検出する種々の視線検出システムに適用可能である。   The line-of-sight detection apparatus 1 of the present embodiment is applicable to various line-of-sight detection systems that detect the line of sight of a target person from an image, similar to the line-of-sight detection apparatus 1 of the first embodiment.

[第3の実施形態]
図19は、第3の実施形態に係る視線検出装置の機能的構成を示す図である。
[Third Embodiment]
FIG. 19 is a diagram illustrating a functional configuration of the visual line detection device according to the third embodiment.

図19に示すように、本実施形態に係る視線検出装置1は、画像取得部101と、注視指示部102と、特徴量算出部103と、処理切替部104と、特徴量補正部105と、特徴決定部106と、パラメータ算出部107と、視線算出部108と、を備える。また、視線検出装置1は、眼球特徴データベース123と、視線記憶部122と、を備える。更に、視線検出装置1は、虹彩半径算出部109を備える。   As illustrated in FIG. 19, the line-of-sight detection apparatus 1 according to the present embodiment includes an image acquisition unit 101, a gaze instruction unit 102, a feature amount calculation unit 103, a process switching unit 104, a feature amount correction unit 105, A feature determination unit 106, a parameter calculation unit 107, and a line-of-sight calculation unit 108 are provided. The line-of-sight detection device 1 includes an eyeball feature database 123 and a line-of-sight storage unit 122. Furthermore, the line-of-sight detection device 1 includes an iris radius calculation unit 109.

本実施形態の視線検出装置1における画像取得部101、注視指示部102、特徴量算出部103、処理切替部104、パラメータ決定部107、及び視線算出部108のそれぞれの機能は、第1の実施形態で説明したとおりである。   The functions of the image acquisition unit 101, the gaze instruction unit 102, the feature amount calculation unit 103, the process switching unit 104, the parameter determination unit 107, and the line-of-sight calculation unit 108 in the line-of-sight detection device 1 of the present embodiment are the first implementations. This is as described in the form.

虹彩半径算出部109は、画像取得部101が赤外線カメラ201から取得した画像における眼球の虹彩を抽出し、虹彩半径を抽出する。   The iris radius calculation unit 109 extracts the iris of the eyeball in the image acquired by the image acquisition unit 101 from the infrared camera 201, and extracts the iris radius.

特徴量補正部105は、画像取得部101が取得した画像における瞳孔間距離と、眼球特徴データベース123に登録された瞳孔間距離とに基づいて、眼球の特徴量及び虹彩半径を補正する。   The feature amount correction unit 105 corrects the feature amount and iris radius of the eyeball based on the interpupillary distance in the image acquired by the image acquisition unit 101 and the interpupillary distance registered in the eyeball feature database 123.

特徴決定部106は、取得した画像における眼球の特徴量及び虹彩半径(又は補正後の眼球の特徴量及び虹彩半径)と、眼球特徴データベース123とに基づいて、対象人物の眼球特徴(眼球の特徴量の組)を決定する。   Based on the eyeball feature amount and iris radius (or the corrected eyeball feature amount and iris radius) in the acquired image and the eyeball feature database 123, the feature determination unit 106 uses the eyeball feature (eyeball feature) of the target person. A set of quantities).

図20は、第3の実施形態に係る眼球特徴データベースの例を示す図である。図21は、眼球の特徴量及び虹彩半径を説明する図である。   FIG. 20 is a diagram illustrating an example of an eyeball feature database according to the third embodiment. FIG. 21 is a diagram for explaining the feature amount and iris radius of the eyeball.

図20に示すように、本実施形態に係る眼球特徴データベース123は、識別子(ID)と、虹彩半径(IR)と、注視点を注視しているときの眼球の特徴量(PG1〜PG5)と、瞳孔間距離(PD)とを含む。このうち識別子、眼球の特徴量、及び瞳孔間距離は、それぞれ、第1の実施形態で説明した眼球特徴データベース121における値と同じ値である。   As shown in FIG. 20, the eyeball feature database 123 according to the present embodiment includes an identifier (ID), an iris radius (IR), and eyeball feature quantities (PG1 to PG5) when gazing at the gazing point. And interpupillary distance (PD). Among them, the identifier, the eyeball feature amount, and the interpupillary distance are the same values as the values in the eyeball feature database 121 described in the first embodiment.

虹彩半径(IR)は、眼球特徴データベース123を作成する際に画像から抽出した、各対象人物の虹彩の画像内における半径である。   The iris radius (IR) is a radius in the iris image of each target person extracted from the image when the eyeball feature database 123 is created.

図20の眼球特徴データベース123は、例えば、図4のデータベース作成装置7により作成することが可能である。データベース作成装置7により眼球特徴データベース123を作成する場合、例えば、特徴量算出部703において、眼球の特徴量(角膜反射の中心から見た瞳孔の中心の相対位置)を算出するとともに、虹彩半径を算出する。そして、登録部705において、眼球の特徴量と、虹彩半径と、距離算出部704で算出した瞳孔間距離との組に1個の識別子を付与し、1個のレコードとして眼球特徴データベース123に登録する。   The eyeball feature database 123 of FIG. 20 can be created, for example, by the database creation device 7 of FIG. When the eyeball feature database 123 is created by the database creation device 7, for example, the feature amount calculation unit 703 calculates the feature amount of the eyeball (relative position of the center of the pupil viewed from the center of corneal reflection) and calculates the iris radius. calculate. Then, in the registration unit 705, one identifier is assigned to the set of the eyeball feature value, the iris radius, and the interpupillary distance calculated by the distance calculation unit 704, and is registered in the eyeball feature database 123 as one record. To do.

特徴量算出部703は、例えば、図21に示すように、画像5から瞳孔602を囲む環状領域603を虹彩として抽出し、瞳孔602の中心Q2から環状領域603の外周までの平均距離(画素数)を虹彩半径IRとする。また、特徴量算出部703において抽出する眼球の特徴量は、第1の実施形態で説明したとおりであり、画像5における角膜反射601の中心Q1を含む画素から見た瞳孔602の中心Q2を含む画素の相対位置を表す値とする。   For example, as shown in FIG. 21, the feature amount calculation unit 703 extracts an annular region 603 surrounding the pupil 602 from the image 5 as an iris, and calculates an average distance (number of pixels) from the center Q2 of the pupil 602 to the outer periphery of the annular region 603. ) Is an iris radius IR. The feature amount of the eyeball extracted by the feature amount calculation unit 703 is as described in the first embodiment, and includes the center Q2 of the pupil 602 viewed from the pixel including the center Q1 of the corneal reflection 601 in the image 5. The value represents the relative position of the pixel.

本実施形態の視線検出装置1は、動作を開始すると、図8に示した較正パラメータ決定処理(ステップS1)、及び視線検出処理(ステップS2)を行う。本実施形態の視線検出装置1は、較正パラメータ決定処理として、図22に示す処理を行う。   When the line-of-sight detection apparatus 1 of the present embodiment starts operation, the calibration parameter determination process (step S1) and the line-of-sight detection process (step S2) shown in FIG. 8 are performed. The line-of-sight detection device 1 of the present embodiment performs the process shown in FIG. 22 as the calibration parameter determination process.

図22は、第3の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。なお、図22のフローチャートの処理ブロックのうち、図9のフローチャートと同じ処理を行うブロックについては、図9と同じステップ番号(例えばS101,S102等)を付している。   FIG. 22 is a flowchart for explaining the contents of the calibration parameter determination process according to the third embodiment. Of the processing blocks in the flowchart of FIG. 22, blocks that perform the same processing as in the flowchart of FIG. 9 are assigned the same step numbers (eg, S101, S102, etc.) as in FIG.

本実施形態の較正パラメータ決定処理において、視線検出装置1は、まず、対象人物が1個の注視点を注視している状態で撮像した、対象人物の眼球を含む画像を取得する(ステップS101)。ステップS101の処理は、画像取得部101と、注視指示部102とが行う。ステップS101において、画像取得部101及び注視指示部102は、それぞれ、第1の実施形態で説明した処理を行う。注視指示部102は、出力装置4を用いて対象人物に1個の注視点を注視させる。一方、画像取得部101は、赤外線カメラ201に1個の注視点を注視している対象人物の眼球を含む画像を撮像させ、撮像した画像を取得する。更に、画像取得部101は、取得した画像を特徴量算出部103に送信する。   In the calibration parameter determination process of the present embodiment, the line-of-sight detection device 1 first acquires an image including the eyeball of the target person that is captured while the target person is gazing at one gaze point (step S101). . The process of step S101 is performed by the image acquisition unit 101 and the gaze instruction unit 102. In step S101, the image acquisition unit 101 and the gaze instruction unit 102 each perform the processing described in the first embodiment. The gaze instruction unit 102 causes the target person to gaze at one gaze point using the output device 4. On the other hand, the image acquisition unit 101 causes the infrared camera 201 to capture an image including the eyeball of the target person who is gazing at one gazing point, and acquires the captured image. Further, the image acquisition unit 101 transmits the acquired image to the feature amount calculation unit 103.

対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS102)。特徴量算出部103は、第1の実施形態で説明したとおり、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心を含む画素及び角膜反射の中心を含む画素を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。   When the image of the target person is acquired, the line-of-sight detection device 1 then calculates the feature amount of the eyeball by extracting the pupil and corneal reflection from the acquired image in the feature amount calculation unit 103 (step S102). As described in the first embodiment, the feature amount calculation unit 103 extracts a pixel including the center of the pupil and a pixel including the center of corneal reflection in each of the right eye and the left eye in the image, and the center of corneal reflection is extracted. The relative position of the center of the pupil viewed from the above is calculated as the feature amount of the eyeball.

特徴量算出部103は、算出した眼球の特徴量及び取得した画像を処理切替部104に送信する。視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)である場合、処理選択部104は、眼球の特徴量及び画像を虹彩半径算出部110に送信する。   The feature amount calculation unit 103 transmits the calculated feature amount of the eyeball and the acquired image to the process switching unit 104. When the process performed by the line-of-sight detection device 1 is the calibration parameter determination process (step S <b> 1), the process selection unit 104 transmits the eyeball feature amount and the image to the iris radius calculation unit 110.

次に、視線検出装置1は、虹彩半径算出部110において、画像から虹彩を抽出して虹彩半径を算出する(ステップS120)。虹彩半径算出部110は、例えば、画像における右眼及び左眼が写っている領域のそれぞれから、瞳孔を囲む環状領域を虹彩として抽出する。続けて、虹彩半径算出部110は、瞳孔の中心と、抽出した環状領域の外周との距離の平均値を算出し、これを虹彩半径とする。虹彩半径算出部110は、算出した虹彩半径と、特徴量算出部103で算出した眼球の特徴量とを、特徴量補正部105に送信する。   Next, the line-of-sight detection device 1 calculates the iris radius by extracting the iris from the image in the iris radius calculation unit 110 (step S120). For example, the iris radius calculation unit 110 extracts an annular region surrounding the pupil as an iris from each of the regions in the image where the right eye and the left eye are reflected. Subsequently, the iris radius calculation unit 110 calculates the average value of the distance between the center of the pupil and the outer periphery of the extracted annular region, and sets this as the iris radius. The iris radius calculation unit 110 transmits the calculated iris radius and the feature amount of the eyeball calculated by the feature amount calculation unit 103 to the feature amount correction unit 105.

ステップS120の後、視線検出装置1は、特徴量補正部105において、画像から抽出した瞳孔の位置に基づいて瞳孔間距離を算出する(ステップS103)。特徴量補正部105は、特徴量算出部103で抽出した、画像内における右眼の瞳孔の中心を含む画素の位置と、左眼の瞳孔の中心を含む画素の位置とに基づいて、瞳孔間距離(画素差)を算出する。   After step S120, the line-of-sight detection device 1 calculates the interpupillary distance based on the position of the pupil extracted from the image in the feature amount correction unit 105 (step S103). Based on the pixel position including the center of the pupil of the right eye in the image and the position of the pixel including the center of the pupil of the left eye extracted by the feature amount calculation unit 103, the feature amount correcting unit 105 The distance (pixel difference) is calculated.

次に、特徴量補正部105は、算出した瞳孔間距離が眼球特徴データベース123の瞳孔間距離と一致するか否かを判定する(ステップS104)。算出した瞳孔間距離が眼球特徴データベース123の瞳孔間距離と一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて眼球の特徴量及び虹彩半径を補正する(ステップS121)。眼球の特徴量及び虹彩半径を補正した場合、特徴量補正部105は、補正後の眼球の特徴量及び虹彩半径を特徴決定部106に送信する。一方、算出した瞳孔間距離が眼球特徴データベースの瞳孔間距離と一致する場合(ステップS104;Yes)、特徴量補正部105は、ステップS103で算出した眼球の特徴量と、ステップS120で算出した虹彩半径とを特徴決定部106に送信する。   Next, the feature amount correcting unit 105 determines whether or not the calculated interpupillary distance matches the interpupillary distance in the eyeball feature database 123 (step S104). When the calculated interpupillary distance does not coincide with the interpupillary distance in the eyeball feature database 123 (step S104; No), the feature amount correction unit 105 corrects the feature amount and iris radius of the eyeball based on the ratio of the interpupillary distance. (Step S121). When the feature amount and iris radius of the eyeball are corrected, the feature amount correction unit 105 transmits the corrected feature amount and iris radius of the eyeball to the feature determination unit 106. On the other hand, when the calculated interpupillary distance matches the interpupillary distance in the eyeball feature database (step S104; Yes), the feature amount correcting unit 105 and the iris calculated in step S120 and the iris calculated in step S120. The radius is transmitted to the feature determination unit 106.

眼球の特徴量及び虹彩半径が特徴決定部106に送信されると、視線検出装置1は、特徴決定部106において、眼球特徴データベース123を参照して較正に用いる眼球特徴を決定する(ステップS106)。特徴決定部106は、眼球特徴データベース123に登録された眼球の特徴量のうちのステップS101で指定した注視点を注視したときの眼球の特徴量と、虹彩半径(IR)とを参照する。そして、特徴決定部106は、眼球特徴データベース123における眼球の特徴量と虹彩半径との組み合わせが、特徴量補正部105から受け取った眼球の特徴量及び虹彩半径と同一又は最も近いレコードに含まれる特徴量の組を、較正に用いる眼球特徴に決定する。特徴決定部106は、決定した眼球特徴(ある識別子と対応付けられた眼球の特徴量の組)をパラメータ算出部107に送信する。   When the feature amount and iris radius of the eyeball are transmitted to the feature determination unit 106, the line-of-sight detection device 1 determines the eyeball feature used for calibration with reference to the eyeball feature database 123 in the feature determination unit 106 (step S106). . The feature determination unit 106 refers to the feature amount of the eyeball when gazing at the gazing point designated in step S101 among the feature amounts of the eyeball registered in the eyeball feature database 123, and the iris radius (IR). Then, the feature determination unit 106 includes the feature included in the record in which the combination of the eyeball feature amount and the iris radius in the eyeball feature database 123 is the same as or closest to the eyeball feature amount and the iris radius received from the feature amount correction unit 105. A set of quantities is determined for the eye features used for calibration. The feature determination unit 106 transmits the determined eyeball feature (a set of eyeball feature amounts associated with a certain identifier) to the parameter calculation unit 107.

ステップS106の処理を終えると、視線検出装置1は、パラメータ算出部107において、決定した眼球特徴に基づいて較正パラメータを算出する(ステップS107)。パラメータ算出部107は、瞳孔−角膜反射法における既知の算出方法に従って較正パラメータを算出し、算出した較正パラメータを現在の対象人物の較正パラメータに決定する。ステップS107の処理を終えると、パラメータ算出部107は、決定した較正パラメータを視線算出部108に送信するとともに、現在の対象人物についての較正パラメータが決定したことを処理切替部104に通知する。これにより、視線検出装置1における較正パラメータ決定処理が終了する。   When the process of step S106 is completed, the line-of-sight detection device 1 calculates a calibration parameter based on the determined eyeball feature in the parameter calculation unit 107 (step S107). The parameter calculation unit 107 calculates a calibration parameter according to a known calculation method in the pupil-corneal reflection method, and determines the calculated calibration parameter as the calibration parameter of the current target person. When the process of step S107 is completed, the parameter calculation unit 107 transmits the determined calibration parameter to the line-of-sight calculation unit 108 and notifies the process switching unit 104 that the calibration parameter for the current target person has been determined. Thereby, the calibration parameter determination process in the line-of-sight detection device 1 ends.

図22の較正パラメータ決定処理により較正パラメータを決定した後、本実施形態の視線検出装置1は、視線検出処理として、例えば、図10に示す処理を行う。   After the calibration parameters are determined by the calibration parameter determination process of FIG. 22, the line-of-sight detection device 1 of the present embodiment performs, for example, the process shown in FIG. 10 as the line-of-sight detection process.

図23は、虹彩半径と眼球形状との相関を説明する図である。
眼球のモデルにおける主なパラメータとしては、例えば、図23に示すように、角膜を形成する球64の半径(角膜半径r)の他に、目そのものの回転を司る眼球65の半径Rと、角膜を形成する球64の中心と眼球65の中心との距離Dが考えられる。
FIG. 23 is a diagram for explaining the correlation between the iris radius and the eyeball shape.
As main parameters in the eyeball model, for example, as shown in FIG. 23, in addition to the radius of the sphere 64 forming the cornea (corneal radius r), the radius R of the eyeball 65 that controls the rotation of the eye itself, and the cornea The distance D between the center of the sphere 64 and the center of the eyeball 65 is considered.

また、眼球のモデルにおいて角膜半径rが既知の場合には、角膜を形成する球64の中心と眼球65の中心との距離Dと、虹彩径I(虹彩半径IR)とに相関がある。   When the cornea radius r is known in the eyeball model, there is a correlation between the distance D between the center of the sphere 64 forming the cornea and the center of the eyeball 65 and the iris diameter I (iris radius IR).

例えば、図23の(a)に示した眼球モデルにおける距離Dは、図23の(b)に示した眼球モデルにおける距離Dよりも長い。このとき、図23の(a)の眼球モデルにおける虹彩径Iは、図23の(b)の眼球モデルにおける虹彩径Iよりも大きくなる。このように、角膜半径rが同一であっても虹彩径I(虹彩半径IR)が異なる場合、角膜と眼球65の中心との距離が異なるため、角膜反射の中心と瞳孔の中心との距離に差異が生じる(例えば、図11及び図12を参照)。よって、本実施形態のように、角膜反射の中心と瞳孔の中心との位置関係に加え、虹彩半径も利用することで、眼球特徴をより細かく分類することが可能となり、対象人物にとって最適な眼球特徴を選出することが可能となる。   For example, the distance D in the eyeball model shown in FIG. 23A is longer than the distance D in the eyeball model shown in FIG. At this time, the iris diameter I in the eyeball model in FIG. 23A is larger than the iris diameter I in the eyeball model in FIG. In this way, even when the corneal radius r is the same, when the iris diameter I (iris radius IR) is different, the distance between the cornea and the center of the eyeball 65 is different, so the distance between the center of corneal reflection and the center of the pupil is different. Differences occur (see, eg, FIGS. 11 and 12). Therefore, as in this embodiment, in addition to the positional relationship between the center of corneal reflection and the center of the pupil, it is possible to classify eyeball features more finely by using the iris radius, and the eyeball that is optimal for the target person Features can be selected.

図24は、第3の実施形態に係る眼球特徴の決定方法の例を説明する図である。
図24には、第3の実施形態に係る眼球特徴データベース123を簡略化して示している。また、図24の眼球特徴データベース123には、眼球の特徴量(PG1〜PG5)及び虹彩半径(IR)とともに、角膜半径(CR)を示している。
FIG. 24 is a diagram illustrating an example of an eyeball feature determination method according to the third embodiment.
FIG. 24 shows a simplified eyeball feature database 123 according to the third embodiment. In addition, the eyeball feature database 123 of FIG. 24 shows the cornea radius (CR) along with the eyeball feature amounts (PG1 to PG5) and the iris radius (IR).

眼球のモデルでは、上記のように、角膜半径が一定であっても、角膜を形成する球の中心と眼球の中心との距離Dに応じて虹彩径I(虹彩半径)が変化する。そして、角膜半径が同じで虹彩半径が異なる複数の人物における眼球の特徴量を抽出すると、眼球の特徴量は、虹彩半径に応じて異なる値となる。   In the eyeball model, as described above, even when the corneal radius is constant, the iris diameter I (iris radius) changes according to the distance D between the center of the sphere forming the cornea and the center of the eyeball. Then, when eyeball feature amounts are extracted from a plurality of persons having the same corneal radius and different iris radii, the eyeball feature amounts have different values depending on the iris radius.

図24に示した眼球特徴データベース123には、角膜半径がRmである人物における眼球の特徴量として、虹彩半径が異なる3通りの眼球の特徴量が登録されている。このとき、虹彩半径がIRm1の人物における眼球の特徴量と、虹彩半径がIRm2の人物における眼球の特徴量と、虹彩半径がIRm3の人物における眼球の特徴量とは、それぞれ、わずかに異なる。例えば、虹彩半径がIRm1の人物が注視点PG3を注視したときの特徴量m13と、虹彩半径がIRm2の人物が注視点PG3を注視したときの特徴量m23とは、わずかに異なる。また、虹彩半径がIRm2の人物が注視点PG3を注視したときの特徴量m23と、虹彩半径がIRm3の人物が注視点PG3を注視したときの特徴量m33とは、わずかに異なる。更に、虹彩半径がIRm1の人物が注視点PG3を注視したときの特徴量m13と、虹彩半径がIRm3の人物が注視点PG3を注視したときの特徴量m33とは、わずかに異なる。   In the eyeball feature database 123 shown in FIG. 24, three types of eyeball feature amounts having different iris radii are registered as eyeball feature amounts in a person whose cornea radius is Rm. At this time, the eyeball feature amount of a person with an iris radius of IRm1, the eyeball feature amount of a person with an iris radius of IRm2, and the eyeball feature amount of a person with an iris radius of IRm3 are slightly different. For example, the feature quantity m13 when a person with an iris radius of IRm1 gazes at the gazing point PG3 is slightly different from the feature quantity m23 when a person with an iris radius of IRm2 gazes at the gazing point PG3. The feature amount m23 when a person with an iris radius of IRm2 gazes at the gazing point PG3 is slightly different from the feature amount m33 when a person with an iris radius of IRm3 gazes at the gazing point PG3. Further, the feature amount m13 when a person with an iris radius of IRm1 gazes at the gazing point PG3 is slightly different from the feature amount m33 when a person with an iris radius of IRm3 gazes at the gazing point PG3.

また、上記のように、角膜半径が異なる複数の人物における眼球の特徴量は、それぞれ異なる。例えば、角膜半径が4である人物が注視点PG3を注視したときの特徴量n3と、角膜半径がRm(≠4)である人物が注視点PG3を注視したときの特徴量m13,m23,m33とは、異なる値となる。   In addition, as described above, the eyeball feature amounts of a plurality of persons having different corneal radii are different from each other. For example, a feature amount n3 when a person with a corneal radius of 4 gazes at the gazing point PG3, and a feature amount m13, m23, m33 when a person with a corneal radius of Rm (≠ 4) gazes at the gazing point PG3. Is a different value.

したがって、角膜半径の異なる複数の人物から抽出した眼球の特徴量のみに基づいて対象人物の眼球特徴を特定する場合、角膜半径が同一又は略同一であっても、虹彩半径の違いから眼球の特徴量に違いが生じ、適切な眼球特徴を選出できない可能性がある。   Therefore, when the eyeball feature of the target person is specified based only on the feature amount of the eyeball extracted from a plurality of people with different corneal radii, even if the corneal radius is the same or substantially the same, the feature of the eyeball is different from the difference in the iris radius. There is a possibility that the amount of the eyeball is different and the proper eyeball feature cannot be selected.

これに対し、本実施形態で用いる眼球特徴データベース123には、角膜半径が同一であり虹彩半径が異なる複数の眼球特徴が登録されている。そのため、眼球特徴を決定する処理では、例えば、角膜半径がRmである対象人物に対する眼球特徴として、まず、3通りの眼球特徴が抽出される。この段階では、3通りの眼球特徴の全てが、対象人物の眼球特徴と類似しており、対象人物の眼球特徴に決定し得る。しかしながら、本実施形態においては、3通りの眼球特徴の中から、虹彩半径が同一又は最も近い眼球特徴を対象人物の眼球特徴に決定する。これにより、角膜半径及び虹彩半径が対象人物に最も近い眼球特徴を対象人物の眼球特徴を決定することが可能となり、より適切な眼球特徴に基づいて較正パラメータを決定することが可能となる。   On the other hand, in the eyeball feature database 123 used in this embodiment, a plurality of eyeball features having the same corneal radius and different iris radii are registered. Therefore, in the process of determining the eyeball feature, for example, three types of eyeball features are first extracted as the eyeball feature for the target person whose cornea radius is Rm. At this stage, all of the three types of eyeball features are similar to the eyeball features of the target person, and can be determined as the eyeball features of the target person. However, in the present embodiment, the eyeball feature having the same or the closest iris radius is determined as the eyeball feature of the target person from the three types of eyeball features. As a result, it is possible to determine the eyeball feature of the target person for the eyeball feature whose cornea radius and iris radius are closest to the target person, and it is possible to determine the calibration parameter based on a more appropriate eyeball feature.

なお、図22は、本実施形態の視線検出装置1が行う較正パラメータ決定処理の一例に過ぎない。本実施形態の視線検出装置1が行う較正パラメータ決定処理は、例えば、第2の実施形態で説明したように、顔の向きに応じて眼球の特徴量や虹彩径を補正する処理を含むものであってもよい。   Note that FIG. 22 is only an example of calibration parameter determination processing performed by the line-of-sight detection device 1 of the present embodiment. The calibration parameter determination process performed by the line-of-sight detection device 1 according to the present embodiment includes a process of correcting the feature amount and iris diameter of the eyeball according to the orientation of the face, as described in the second embodiment, for example. There may be.

また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、データベースに限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。   In addition, as described above, the eyeball feature information including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the database as described above. It may be registered (stored) in the storage unit in a manner.

また、本実施形態の視線検出装置1は、第1の実施形態の視線検出装置1と同様、画像から対象人物の視線を検出する種々の視線検出システムに適用可能である。   The line-of-sight detection apparatus 1 of the present embodiment is applicable to various line-of-sight detection systems that detect the line of sight of a target person from an image, similar to the line-of-sight detection apparatus 1 of the first embodiment.

[第4の実施形態]
本実施形態では、眼球特徴データベース121,123を参照して対象人物の眼球特徴を決定する処理において、眼球特徴を対象人物の眼球の特徴量により近づける例を説明する。なお、本実施形態に係る視線検出装置1の機能的構成は、例えば、図1に示した較正でよい。また、視線検出装置1に格納される眼球特徴データベースは、例えば、図2の眼球特徴データベース121でもよし、図20の眼球特徴データベース123でもよい。
[Fourth Embodiment]
In the present embodiment, an example will be described in which the eyeball feature is made closer to the feature amount of the eyeball of the target person in the process of determining the eyeball feature of the target person with reference to the eyeball feature databases 121 and 123. Note that the functional configuration of the visual line detection device 1 according to the present embodiment may be the calibration shown in FIG. Further, the eyeball feature database stored in the line-of-sight detection device 1 may be, for example, the eyeball feature database 121 of FIG. 2 or the eyeball feature database 123 of FIG.

本実施形態に係る視線検出装置1は、図8に示した較正パラメータ決定処理(ステップS1)、及び視線検出処理(ステップS2)を行う。その際、視線検出装置1は、較正パラメータ決定処理として、図9又は図15に示した処理を行う。なお、視線検出装置1は、較正パラメータ決定処理におけるステップS106の処理、すなわち眼球特徴データベースを参照して眼球特徴を決定する処理として、図25に示す処理を行う。   The line-of-sight detection apparatus 1 according to the present embodiment performs the calibration parameter determination process (step S1) and the line-of-sight detection process (step S2) shown in FIG. At that time, the line-of-sight detection device 1 performs the process shown in FIG. 9 or FIG. 15 as the calibration parameter determination process. The line-of-sight detection device 1 performs the process shown in FIG. 25 as the process of step S106 in the calibration parameter determination process, that is, the process of determining the eyeball feature with reference to the eyeball feature database.

図25は、第4の実施形態に係る較正パラメータ決定処理における眼球特徴を決定する処理の内容を説明するフローチャートである。   FIG. 25 is a flowchart for explaining the contents of processing for determining eyeball characteristics in the calibration parameter determination processing according to the fourth embodiment.

眼球特徴を決定する処理(ステップS106)は、視線検出装置1の特徴決定部106が行う。特徴決定部106は、まず、眼球特徴データベース121を参照し(ステップS161)、算出した特徴量又は補正した特徴量と一致するレコードがあるか否かを判定する(ステップS162)。ここで、レコードは、1個の識別子と対応付けられた複数個の眼球の特徴量の組である。   The process of determining the eyeball feature (step S106) is performed by the feature determination unit 106 of the eye gaze detection apparatus 1. The feature determination unit 106 first refers to the eyeball feature database 121 (step S161) and determines whether there is a record that matches the calculated feature value or the corrected feature value (step S162). Here, the record is a set of feature quantities of a plurality of eyeballs associated with one identifier.

算出した特徴量又は補正した特徴量と一致するレコードがある場合(ステップS162;Yes)、特徴決定部106は、一致したレコードを対象人物の眼球特徴に決定する(ステップS163)。この場合、特徴決定部106は、ステップS163で決定した眼球特徴をパラメータ決定部107に送信し、眼球特徴を決定する処理を終了する。   When there is a record that matches the calculated feature value or the corrected feature value (step S162; Yes), the feature determination unit 106 determines the matched record as the eyeball feature of the target person (step S163). In this case, the feature determination unit 106 transmits the eyeball feature determined in step S163 to the parameter determination unit 107, and ends the process of determining the eyeball feature.

一方、算出した特徴量又は補正した特徴量と一致するレコードがない場合(ステップS162;No)、特徴決定部106は、次に、算出した特徴量又は補正した特徴量と近い特徴量を持つ複数のレコードを抽出する(ステップS164)。   On the other hand, when there is no record that matches the calculated feature value or the corrected feature value (step S162; No), the feature determination unit 106 next has a plurality of feature values close to the calculated feature value or the corrected feature value. Are extracted (step S164).

次に、特徴決定部106は、算出した特徴量又は補正した特徴量と、抽出したレコードの特徴量とに基づいて、各注視点の眼球の特徴量を算出する(ステップS165)。ステップS165において、特徴決定部106は、算出した特徴量又は補正した特徴量と、抽出した複数のレコードの特徴量のそれぞれとの距離の比に基づいて、各注視点の眼球の特徴量を算出する。   Next, the feature determination unit 106 calculates the feature value of the eyeball of each gazing point based on the calculated feature value or the corrected feature value and the feature value of the extracted record (step S165). In step S165, the feature determination unit 106 calculates the feature amount of the eyeball of each gazing point based on the ratio of the distance between the calculated feature amount or the corrected feature amount and each of the extracted feature amounts of the plurality of records. To do.

次に、特徴決定部106は、ステップS165で算出した各注視点の眼球の特徴量の組を対象人物の眼球特徴に決定する(ステップS166)。ステップS166の後、特徴決定部106は、ステップS163で決定した眼球特徴をパラメータ算出部107に送信し、眼球特徴を決定する処理を終了する。   Next, the feature determination unit 106 determines the eyeball feature of each target point calculated in step S165 as the eyeball feature of the target person (step S166). After step S166, the feature determination unit 106 transmits the eyeball feature determined in step S163 to the parameter calculation unit 107, and ends the process of determining the eyeball feature.

図26は、眼球特徴データベースから抽出される複数のレコードの例を示す図である。なお、図26には、眼球特徴データベース121に登録された右眼のレコードの例を示している。   FIG. 26 is a diagram illustrating an example of a plurality of records extracted from the eyeball feature database. FIG. 26 shows an example of a right eye record registered in the eyeball feature database 121.

特徴決定部106が行う上記の処理の例として、対象人物が注視点PG3を注視している画像から算出した右眼の特徴量(0,−1.9)と、図26の眼球特徴データベース121とに基づいて眼球特徴を決定する場合を挙げる。図26の眼球特徴データベース121には、注視点PG3の特徴量が特徴量(0,−1.9)であるレコードが登録されていない。そのため、特徴決定部106は、算出した特徴量と一致するレコードがないと判定し(ステップS162;No)、次に、算出した特徴量(0.−1.9)と近い特徴量を持つ複数のレコードを抽出する(ステップS164)。ステップS164において、特徴決定部106は、算出した特徴量と近い特徴量を持つレコードとして、識別子がR−jのレコードと、識別子がR−kのレコードとの2つのレコードを抽出する。   As an example of the above processing performed by the feature determination unit 106, the right eye feature amount (0, -1.9) calculated from the image in which the target person is gazing at the gazing point PG3, and the eyeball feature database 121 of FIG. A case where eyeball characteristics are determined based on In the eyeball feature database 121 of FIG. 26, a record in which the feature amount of the gazing point PG3 is the feature amount (0, -1.9) is not registered. Therefore, the feature determination unit 106 determines that there is no record that matches the calculated feature amount (step S162; No), and then has a plurality of feature amounts that are close to the calculated feature amount (0.1-1.9). Are extracted (step S164). In step S164, the feature determination unit 106 extracts two records, a record having an identifier Rj and a record having an identifier Rk, as records having a feature amount close to the calculated feature amount.

次に、特徴量決定部106は、算出した特徴量又は補正した特徴量と、抽出したレコードの特徴量とに基づいて、各注視点の眼球の特徴量を算出する(ステップS165)。   Next, the feature amount determination unit 106 calculates the feature amount of the eyeball of each gazing point based on the calculated feature amount or the corrected feature amount and the extracted feature amount of the record (step S165).

図27は、特徴量の算出方法を説明する図である。
ステップS165において特徴量を算出する際には、例えば、図27に示すように、特徴量を表現する仮想平面に、算出した特徴量P(0,−1.9)と、抽出したレコードの特徴量J(0,−1.8),K(0.2,−2.2)とをプロットする。
FIG. 27 is a diagram illustrating a feature amount calculation method.
When calculating the feature amount in step S165, for example, as shown in FIG. 27, the calculated feature amount P (0, -1.9) and the feature of the extracted record are displayed on the virtual plane expressing the feature amount. The quantities J (0, -1.8) and K (0.2, -2.2) are plotted.

次に、特徴量Pから、抽出したレコードの特徴量Jと特徴量Kとを結ぶ線分JKに垂線を下ろし、線分JKと垂線との交点Nで線分JKを線分JNと線分JKとを分割する。その後、分割した線分JNと線分NKとの比と、識別子がR−jのレコードと、識別子がR−kのレコードとに基づいて、対象人物が各注視点を注視したときの眼球の特徴量を算出する。   Next, a perpendicular line is drawn from the feature quantity P to the line segment JK connecting the feature quantity J and the feature quantity K of the extracted record, and the line segment JK and the line segment JN at the intersection N of the line segment JK and the perpendicular line are drawn. Divide JK. Then, based on the ratio of the divided line segment JN and line segment NK, the record with the identifier Rj, and the record with the identifier Rk, the eyeball when the target person gazes at each gaze point The feature amount is calculated.

線分JPと線分JNとのなす角をθとした場合、下記式(6−1)及び式(6−2)が成り立つ。   When the angle formed by the line segment JP and the line segment JN is θ, the following expressions (6-1) and (6-2) hold.

Figure 2017213191
Figure 2017213191

式(6−1)において、上部に矢印を付したJNは、特徴量Jから交点Nに向かうベクトルを意味する。式(6−1)及び式(6−2)において、上部に矢印を付したJPは、特徴量Jから特徴量Pに向かうベクトルを意味する。式(6−2)において、上部に矢印を付したJKは、特徴量Jから特徴量Kに向かうベクトルを意味する。   In Expression (6-1), JN with an arrow at the top means a vector from the feature amount J toward the intersection N. In Expressions (6-1) and (6-2), JP with an arrow at the top means a vector from the feature quantity J to the feature quantity P. In Expression (6-2), JK with an arrow at the top means a vector from the feature quantity J to the feature quantity K.

また、式(6−1)及び式(6−2)から、式(6−3)が成り立つ。   Moreover, Formula (6-3) is realized from Formula (6-1) and Formula (6-2).

Figure 2017213191
Figure 2017213191

したがって、仮想平面における交点Nの座標は、下記式(6−4)により算出することができる。   Therefore, the coordinates of the intersection N on the virtual plane can be calculated by the following equation (6-4).

Figure 2017213191
Figure 2017213191

ここで、特徴量J=(0,−1.8)、ベクトルJN=(Nx,Ny+1.8)、及びベクトルJK=(0.2,−0.4)を用いて式(6−4)を解くと、交点Nの座標(Nx,Ny)は(0.04,−1.88)となる。よって、線分JNと線分NKとの比|JN|:|NK|は、0.09:0.36(=1:4)となる。   Here, using the feature quantity J = (0, −1.8), the vector JN = (Nx, Ny + 1.8), and the vector JK = (0.2, −0.4), Expression (6-4) Is solved, the coordinates (Nx, Ny) of the intersection N are (0.04, -1.88). Therefore, the ratio | JN |: | NK | of the line segment JN and the line segment NK is 0.09: 0.36 (= 1: 4).

線分JNと線分NKとの比を求めた後、特徴決定部106は、注視点毎に、識別子がR−jのレコードの特徴量と、識別子がR−kのレコードの特徴量とを結ぶ線分を1:4で分割する点を算出し、それらの点を対象人物が各注視点を注視したときの特徴量とする。例えば、注視点PG1を注視したときの特徴量は、識別子がR−jのレコードでは(−4,−3)であり、識別子がR−kのレコードでは(−4.5,−4)である。そのため、特徴決定部106は、下記式(7−1)及び式(7−2)により、対象人物が注視点PG1を注視したときの特徴量(X,Y)を算出する。   After obtaining the ratio between the line segment JN and the line segment NK, the feature determination unit 106 calculates, for each gaze point, the feature amount of the record with the identifier Rj and the feature amount of the record with the identifier Rk. Points that divide the connecting line segments by 1: 4 are calculated, and these points are used as feature amounts when the target person watches each gazing point. For example, the feature amount when gazing at the gazing point PG1 is (−4, −3) for the record with the identifier Rj, and (−4.5, −4) for the record with the identifier Rk. is there. Therefore, the feature determination unit 106 calculates the feature amount (X, Y) when the target person gazes at the gazing point PG1 using the following formulas (7-1) and (7-2).

X=−4+{1/(1+4)}・{−4.5−(−4)}
=−4.1 (7−1)
Y=−3+{1/(1+4)}・{−4−(−3)}
=−3.2 (7−2)
X = -4 + {1 / (1 + 4)}. {-4.5-(-4)}
= -4.1 (7-1)
Y = −3 + {1 / (1 + 4)} · {−4 − (− 3)}
= -3.2 (7-2)

このように、本実施形態においては、算出した特徴量又は補正した特徴量と一致する特徴量が眼球特徴データベースに登録されていない場合、算出した特徴量又は補正した特徴量と近い特徴量を持つレコードに基づいて、対象人物の眼球特徴を決定する。このため、例えば、眼球特徴データベースに登録するレコード数の増大を抑制し、データベースの肥大化による較正パラメータ決定処理の処理負荷の増大を抑制することが可能となる。また、本実施形態においては、算出した特徴量又は補正した特徴量から抽出したレコードの特徴量までの距離に基づいて対象人物の眼球特徴を算出する。そのため、例えば、算出した特徴量又は補正した特徴量に最も近い特徴量を持つレコードを対象人物の眼球特徴に決定する場合に比べ、より対象人物の実際の眼球特徴に近い特徴量を算出することができ、視線検出の精度が向上する。   As described above, in the present embodiment, when a feature quantity that matches the calculated feature quantity or the corrected feature quantity is not registered in the eyeball feature database, the calculated feature quantity or the feature quantity close to the corrected feature quantity is included. Based on the record, the eyeball characteristics of the target person are determined. For this reason, for example, it is possible to suppress an increase in the number of records registered in the eyeball feature database, and to suppress an increase in the processing load of the calibration parameter determination process due to the enlargement of the database. In this embodiment, the eyeball feature of the target person is calculated based on the distance from the calculated feature value or the corrected feature value to the feature value of the extracted record. Therefore, for example, the feature quantity closer to the actual eyeball feature of the target person is calculated compared to the case where the record having the feature quantity closest to the calculated feature quantity or the corrected feature quantity is determined as the eyeball feature of the target person. This improves the accuracy of eye-gaze detection.

なお、図25のフローチャートは、較正パラメータ決定処理における眼球特徴を決定する処理の一例に過ぎない。眼球特徴を決定する処理は、適宜変更可能であり、図25に示した手順に限らず、一部の処理の内容を変更したものであってもよいである。   Note that the flowchart of FIG. 25 is merely an example of processing for determining eye features in the calibration parameter determination processing. The process of determining the eyeball feature can be changed as appropriate, and is not limited to the procedure shown in FIG.

また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、データベースに限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。   In addition, as described above, the eyeball feature information including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the database as described above. It may be registered (stored) in the storage unit in a manner.

また、本実施形態の視線検出装置1は、第1の実施形態の視線検出装置1と同様、画像から対象人物の視線を検出する種々の視線検出システムに適用可能である。   The line-of-sight detection apparatus 1 of the present embodiment is applicable to various line-of-sight detection systems that detect the line of sight of a target person from an image, similar to the line-of-sight detection apparatus 1 of the first embodiment.

上記の各実施形態に係る視線検出装置1は、例えば、コンピュータと、当該コンピュータに実行させるプログラムとを用いて実現することが可能である。以下、コンピュータとプログラムとを用いて実現される視線検出装置1について、図28を参照して説明する。   The line-of-sight detection device 1 according to each of the above embodiments can be realized using, for example, a computer and a program executed by the computer. Hereinafter, the line-of-sight detection apparatus 1 realized using a computer and a program will be described with reference to FIG.

図28は、コンピュータのハードウェア構成を示す図である。
図28に示すように、コンピュータ21は、プロセッサ2101と、主記憶装置2102と、補助記憶装置2103と、入力装置2104と、出力装置2105と、入出力インタフェース2106と、通信制御装置2107と、媒体駆動装置2108と、を備える。コンピュータ21におけるこれらの要素2101〜2108は、バス2110により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
FIG. 28 is a diagram illustrating a hardware configuration of a computer.
As shown in FIG. 28, the computer 21 includes a processor 2101, a main storage device 2102, an auxiliary storage device 2103, an input device 2104, an output device 2105, an input / output interface 2106, a communication control device 2107, a medium And a driving device 2108. These elements 2101 to 2108 in the computer 21 are connected to each other by a bus 2110 so that data can be exchanged between the elements.

プロセッサ2101は、Central Processing Unit(CPU)やMicro Processing Unit(MPU)等である。プロセッサ2101は、オペレーティングシステムを含む各種のプログラムを実行することにより、コンピュータ21の全体の動作を制御する。また、プロセッサ2101は、例えば、図8〜図10に示した較正パラメータ決定処理や視線検出処理等を行う。   The processor 2101 is a central processing unit (CPU), a micro processing unit (MPU), or the like. The processor 2101 controls the overall operation of the computer 21 by executing various programs including an operating system. Further, the processor 2101 performs, for example, the calibration parameter determination process and the line-of-sight detection process shown in FIGS.

主記憶装置2102は、図示しないRead Only Memory(ROM)及びRandom Access Memory(RAM)を含む。主記憶装置2102のROMには、例えば、コンピュータ21の起動時にプロセッサ2101が読み出す所定の基本制御プログラム等が予め記録されている。また、主記憶装置2102のRAMは、プロセッサ2101が、各種のプログラムを実行する際に必要に応じて作業用記憶領域として使用する。主記憶装置2102のRAMは、例えば、赤外線カメラ201から取得した画像、当該画像に基づいて算出した眼球の特徴量、較正パラメータ等の記憶に利用可能である。   The main storage device 2102 includes a read only memory (ROM) and a random access memory (RAM) not shown. In the ROM of the main storage device 2102, for example, a predetermined basic control program read by the processor 2101 when the computer 21 is started is recorded in advance. The RAM of the main storage device 2102 is used as a working storage area as needed when the processor 2101 executes various programs. The RAM of the main storage device 2102 can be used for storing, for example, an image acquired from the infrared camera 201, an eyeball feature amount calculated based on the image, and a calibration parameter.

補助記憶装置2103は、例えば、フラッシュメモリ等の不揮発性メモリ(Solid State Drive(SSD)を含む)やHard Disk Drive(HDD)である。補助記憶装置2103には、プロセッサ2101によって実行される各種のプログラムや各種のデータ等の記憶に利用可能である。補助記憶装置2103は、例えば、較正パラメータ決定処理及び視線検出処理を含むプログラム等の記憶に利用可能である。また、補助記憶装置2103は、例えば、眼球特徴データベース121,123、赤外線カメラ201から取得した画像、較正パラメータ等の記憶や、検出した視線の履歴等の記憶に利用可能である。   The auxiliary storage device 2103 is, for example, a non-volatile memory such as a flash memory (including a solid state drive (SSD)) or a hard disk drive (HDD). The auxiliary storage device 2103 can be used to store various programs executed by the processor 2101 and various data. The auxiliary storage device 2103 can be used for storing a program including a calibration parameter determination process and a line-of-sight detection process, for example. In addition, the auxiliary storage device 2103 can be used for storing, for example, images acquired from the eyeball feature databases 121 and 123 and the infrared camera 201, calibration parameters, and history of detected lines of sight.

入力装置2104は、例えば、キーボード装置やタッチパネル装置等である。コンピュータ21のオペレータ(利用者)が入力装置2104に対して所定の操作を行うと、入力装置2104は、その操作内容に対応付けられている入力情報をプロセッサ2101に送信する。入力装置2104は、例えば、図1及び図19の入力装置3として利用可能である。   The input device 2104 is, for example, a keyboard device or a touch panel device. When an operator (user) of the computer 21 performs a predetermined operation on the input device 2104, the input device 2104 transmits input information associated with the operation content to the processor 2101. The input device 2104 can be used as, for example, the input device 3 in FIGS. 1 and 19.

出力装置2105は、例えば、表示装置やスピーカ等である。出力装置2105は、例えば、対象人物への注視する注視点の通知等に利用可能である。すなわち、出力装置2105は、図1及び図19の出力装置4として利用可能である。   The output device 2105 is, for example, a display device or a speaker. The output device 2105 can be used, for example, for notification of a gazing point for gazing at a target person. That is, the output device 2105 can be used as the output device 4 in FIGS. 1 and 19.

入出力インタフェース2106は、コンピュータ21と、他の電子機器とを接続する。入出力インタフェース2106は、例えば、Universal Serial Bus(USB)規格のコネクタ等を備える。入出力インタフェース2106は、例えば、コンピュータ21と視線センサ2の赤外線カメラ201との接続に利用可能である。   The input / output interface 2106 connects the computer 21 and other electronic devices. The input / output interface 2106 includes, for example, a universal serial bus (USB) standard connector. The input / output interface 2106 can be used, for example, for connection between the computer 21 and the infrared camera 201 of the line-of-sight sensor 2.

通信制御装置2107は、コンピュータ21を通信ネットワークに接続し、通信ネットワークを介したコンピュータ21と他の電子機器との各種通信を制御する装置である。通信制御装置2107は、例えば、データベース作成装置7で作成した眼球特徴データベースを取得して補助記憶装置2103等に記憶させることに利用可能である。また、通信制御装置2107は、図14に示した視線検出システム17のようなコンピュータ21(視線検出装置1)と管理サーバ15との通信に利用可能である。   The communication control device 2107 is a device that connects the computer 21 to a communication network and controls various types of communication between the computer 21 and other electronic devices via the communication network. The communication control device 2107 can be used, for example, for acquiring the eye feature database created by the database creation device 7 and storing it in the auxiliary storage device 2103 or the like. Further, the communication control device 2107 can be used for communication between the management server 15 and the computer 21 (gaze detection device 1) such as the gaze detection system 17 shown in FIG.

媒体駆動装置2108は、可搬型記憶媒体22に記録されているプログラムやデータの読み出し、補助記憶装置2103に記憶されたデータ等の可搬型記憶媒体22への書き込みを行う。媒体駆動装置2108として、例えば、1種類又は複数種類の規格に対応したメモリカード用リーダ/ライタが利用可能である。媒体駆動装置2108としてメモリカード用リーダ/ライタを用いる場合、可搬型記憶媒体22としては、メモリカード用リーダ/ライタが対応している規格、例えば、Secure Digital(SD)規格のメモリカード(フラッシュメモリ)等を利用可能である。また、可搬型記録媒体22としては、例えば、USB規格のコネクタを備えたフラッシュメモリが利用可能である。可搬型記録媒体22は、上記の較正パラメータ決定処理、及び視線検出処理を含むプログラム、眼球特徴データベース121,123、較正パラメータ、検出した視線等の記憶に利用可能である。   The medium driving device 2108 reads programs and data recorded in the portable storage medium 22 and writes data stored in the auxiliary storage device 2103 to the portable storage medium 22. As the medium driving device 2108, for example, a memory card reader / writer corresponding to one type or a plurality of types of standards can be used. When a memory card reader / writer is used as the medium driving device 2108, the portable storage medium 22 is a standard compatible with the memory card reader / writer, such as a Secure Digital (SD) standard memory card (flash memory). ) Etc. can be used. Further, as the portable recording medium 22, for example, a flash memory having a USB standard connector can be used. The portable recording medium 22 can be used to store a program including the calibration parameter determination process and the line-of-sight detection process, eyeball feature databases 121 and 123, calibration parameters, and the detected line of sight.

また、コンピュータ21が媒体駆動装置2108として利用可能な光ディスクドライブを搭載している場合、当該光ディスクドライブで認識可能な各種の光ディスクを可搬型記録媒体22として利用可能である。可搬型記録媒体22として利用可能な光ディスクには、例えば、Compact Disc(CD)、Digital Versatile Disc(DVD)、Blu-ray Disc(Blu-rayは登録商標)等がある。   Further, when the computer 21 is equipped with an optical disk drive that can be used as the medium driving device 2108, various optical disks that can be recognized by the optical disk drive can be used as the portable recording medium 22. Examples of the optical disc that can be used as the portable recording medium 22 include a Compact Disc (CD), a Digital Versatile Disc (DVD), and a Blu-ray Disc (Blu-ray is a registered trademark).

コンピュータ21は、図8の処理を開始する命令を入力すると、プロセッサ2101が補助記憶装置2103等から較正パラメータ決定処理及び視線検出処理を含むプログラムを読み出して実行する。この際、プロセッサ2101は、画像取得部101、注視点指示部102、特徴量算出部103、特徴量補正部105、特徴決定部106、パラメータ算出部107、及び視線算出部108として機能する(動作する)。更に、コンピュータ21が第3の実施形態で説明した処理を実行する場合、プロセッサ2101は、虹彩半径算出部110としても機能する(動作する)。また、主記憶装置2102のRAMや補助記憶装置2103等は、眼球特徴データベース121,123を記憶する記憶部、検出した視線を記憶する視線記憶部122として機能する。   When the computer 21 inputs a command for starting the processing of FIG. 8, the processor 2101 reads and executes a program including calibration parameter determination processing and line-of-sight detection processing from the auxiliary storage device 2103 and the like. At this time, the processor 2101 functions as an image acquisition unit 101, a gazing point instruction unit 102, a feature amount calculation unit 103, a feature amount correction unit 105, a feature determination unit 106, a parameter calculation unit 107, and a line-of-sight calculation unit 108 (operations) To do). Furthermore, when the computer 21 executes the processing described in the third embodiment, the processor 2101 also functions (operates) as the iris radius calculation unit 110. The RAM of the main storage device 2102, the auxiliary storage device 2103, and the like function as a storage unit that stores the eyeball feature databases 121 and 123 and a line-of-sight storage unit 122 that stores the detected line of sight.

更に、コンピュータ21は、視線検出装置1として動作させるだけでなく、データベース作成装置7として動作させることも可能である。コンピュータ21をデータベース作成装置7として動作させる場合、プロセッサ2101には、図5の作成処理を含むプログラムを実行させる。この場合、プロセッサ2101は、図4に示した注視指示部701、画像取得部702、特徴量算出部703、距離算出部704、登録部705として機能する(動作する)。また、主記憶装置2102のRAMや補助記憶装置2103等は、複数の注視点を示す情報を記憶する記憶部、赤外線カメラ201から取得した画像を記憶する記憶部、眼球特徴データベース121を記憶する記憶部として機能する。   Furthermore, the computer 21 can be operated not only as the line-of-sight detection device 1 but also as the database creation device 7. When the computer 21 is operated as the database creation device 7, the processor 2101 is caused to execute a program including the creation process of FIG. In this case, the processor 2101 functions (operates) as the gaze instruction unit 701, the image acquisition unit 702, the feature amount calculation unit 703, the distance calculation unit 704, and the registration unit 705 illustrated in FIG. In addition, the RAM of the main storage device 2102, the auxiliary storage device 2103, and the like include a storage unit that stores information indicating a plurality of gazing points, a storage unit that stores images acquired from the infrared camera 201, and a storage that stores an eyeball feature database 121. It functions as a part.

なお、視線検出装置1又はデータベース作成装置7として動作させるコンピュータ21は、図28に示した全ての要素2101〜2108を含む必要はなく、用途や条件に応じて一部の要素を省略することも可能である。例えば、コンピュータ21は、通信制御装置2107或いは媒体駆動装置2108が省略されたものであってもよい。   Note that the computer 21 that operates as the line-of-sight detection device 1 or the database creation device 7 does not need to include all the elements 2101 to 2108 shown in FIG. 28, and some elements may be omitted depending on applications and conditions. Is possible. For example, the computer 21 may be one in which the communication control device 2107 or the medium driving device 2108 is omitted.

以上記載した各実施形態に関し、更に以下の付記を開示する。
(付記1)
カメラと所定の位置関係にある視点から予め定めた複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴が角膜半径と対応付ける態様で複数登録された記憶部と、
前記複数の注視点のうちの第一の注視点を注視している人物について、前記人物と所定の位置関係にあるカメラによって撮像された画像に基づいて、前記人物の眼球の特徴量を算出する特徴量算出部と、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定する特徴決定部と、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出するパラメータ算出部と、
を備えることを特徴とする視線検出装置。
(付記2)
前記眼球の特徴量は、前記画像に写っている前記人物の眼球における瞳孔の中心と、角膜反射の中心との位置関係を表す値である、
ことを特徴とする付記1に記載の視線検出装置。
(付記3)
前記記憶部に登録された複数の前記眼球特徴は、それぞれ、前記カメラから前記視点までの距離を表す情報を更に含み、
前記視線検出装置は、前記画像に基づいて前記カメラから前記人物までの距離を算出し、算出した前記距離と、前記記憶部に登録された前記距離を表す情報とに基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする付記2に記載の視線検出装置。
(付記4)
前記カメラから前記視点までの距離を表す前記情報、及び前記特徴量補正部で算出する前記距離は、前記画像内における前記人物の両眼の前記瞳孔の距離又は前記角膜反射の距離である、
ことを特徴とする付記3に記載の視線検出装置。
(付記5)
前記眼球の特徴量は、前記画像に写っている前記人物の眼球における瞳孔の中心と、角膜反射の中心との位置関係を表す値であり、
前記視線検出装置は、取得した前記画像に写っている右眼における前記眼球の特徴量と、左眼における前記眼球の特徴量との差に基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする付記1に記載の視線検出装置。
(付記6)
前記記憶部に登録された前記眼球の特徴量は、顔が前記カメラと正対している状態で前記複数の注視点のそれぞれを注視したときの特徴量であり、
前記特徴量補正部は、前記右眼における前記眼球の特徴量と、前記左眼における前記眼球の特徴量との差が閾値以上である場合に、前記右眼における前記眼球の特徴量及び前記左眼における前記眼球の特徴量のいずれか一方の特徴量を、他方の特徴量と一致させる補正を行う、
ことを特徴とする付記5に記載の視線検出装置。
(付記7)
前記記憶部に登録された複数の前記眼球特徴は、それぞれ、前記眼球の虹彩半径を含み、
前記視線検出装置は、取得した前記画像に基づいて前記人物の眼球の虹彩半径を算出する虹彩半径算出部、を更に備え、
前記特徴決定部は、前記第一の注視点に対応する前記眼球の特徴量と、前記虹彩半径とに基づいて、前記人物の眼球特徴を決定する、
ことを特徴とする付記1に記載の視線検出装置。
(付記8)
前記特徴決定部は、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量と一致する眼球特徴、又は算出した前記人物の眼球の特徴量に最も近い眼球特徴を、前記人物の眼球特徴に決定する、
ことを特徴とする付記1に記載の視線検出装置。
(付記9)
前記特徴決定部は、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量に近い2個の眼球特徴を抽出し、
抽出した前記眼球特徴の一方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、及び抽出した前記眼球特徴の他方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、に基づいて、前記人物が前記複数の注視点のそれぞれを注視したときの眼球の特徴量を推定し、
推定した前記眼球の特徴量の組を前記人物の眼球特徴に決定する、
ことを特徴とする付記1に記載の視線検出装置。
(付記10)
コンピュータが、
カメラから取得した、予め定めた複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、前記人物の眼球の特徴量を算出し、
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理を実行することを特徴とする視線検出方法。
(付記11)
前記登録情報における複数の前記眼球特徴は、それぞれ、右眼と左眼との瞳孔間距離を含み、
前記視線検出方法は、前記人物の眼球の特徴量を算出した後、前記コンピュータが、前記画像に基づいて算出した前記人物の瞳孔間距離と、前記眼球特徴の前記瞳孔間距離とに基づいて、算出した前記人物の眼球の特徴量を補正する処理を含み、
前記眼球の特徴量を補正した場合、前記コンピュータは、前記人物の眼球特徴を決定する処理において、補正した前記眼球の特徴量と、前記登録情報とに基づいて、前記人物の眼球特徴を決定する、
ことを特徴とする付記10に記載の視線検出方法。
(付記12)
前記人物の眼球特徴を決定する処理において、前記コンピュータは、
前記登録情報における複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量に近い2個の眼球特徴を抽出し、
抽出した前記眼球特徴の一方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、及び抽出した前記眼球特徴の他方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、に基づいて、前記人物が前記複数の注視点のそれぞれを注視したときの眼球の特徴量を推定し、
推定した前記眼球の特徴量の組を前記人物の眼球特徴に決定する、
ことを特徴とする付記10に記載の視線検出方法。
(付記13)
カメラから取得した、予め定めた複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、前記人物の眼球の特徴量を算出し、
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理をコンピュータに実行させる視線検出プログラム。
The following additional notes are disclosed for each of the embodiments described above.
(Appendix 1)
A storage unit in which a plurality of eyeball features including a set of eyeball feature amounts detected when each of a plurality of gaze points determined in advance from viewpoints in a predetermined positional relationship with the camera is associated with a corneal radius are registered When,
For a person who is gazing at a first gazing point of the plurality of gazing points, a feature amount of the eyeball of the person is calculated based on an image captured by a camera having a predetermined positional relationship with the person. A feature amount calculation unit;
Based on the feature amount of the eyeball corresponding to the first gazing point and the calculated feature amount of the eyeball of the person among the plurality of eyeball features registered in the storage unit, the eyeball feature of the person is obtained. A feature determining unit to determine;
A parameter calculation unit that calculates a calibration parameter for the line of sight of the person based on the feature amounts of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection device comprising:
(Appendix 2)
The feature amount of the eyeball is a value representing a positional relationship between the center of the pupil and the center of corneal reflection in the eyeball of the person shown in the image.
The line-of-sight detection apparatus according to Supplementary Note 1, wherein
(Appendix 3)
Each of the plurality of eyeball features registered in the storage unit further includes information representing a distance from the camera to the viewpoint,
The line-of-sight detection device calculates a distance from the camera to the person based on the image, and calculates the feature amount based on the calculated distance and information indicating the distance registered in the storage unit A feature amount correction unit that corrects the feature amount of the eyeball calculated by the unit;
The line-of-sight detection apparatus according to Supplementary Note 2, wherein:
(Appendix 4)
The information representing the distance from the camera to the viewpoint, and the distance calculated by the feature amount correction unit is a distance of the pupil of the eyes of the person in the image or a distance of the corneal reflection.
The line-of-sight detection apparatus according to Supplementary Note 3, wherein
(Appendix 5)
The feature amount of the eyeball is a value representing the positional relationship between the center of the pupil in the eyeball of the person shown in the image and the center of corneal reflection,
The line-of-sight detection device, based on a difference between a feature amount of the eyeball in the right eye and a feature amount of the eyeball in the left eye, which are captured in the acquired image, of the eyeball calculated by the feature amount calculation unit A feature amount correction unit for correcting the feature amount;
The line-of-sight detection apparatus according to Supplementary Note 1, wherein
(Appendix 6)
The feature amount of the eyeball registered in the storage unit is a feature amount when each of the plurality of gazing points is gazeed in a state where a face is facing the camera,
When the difference between the feature amount of the eyeball in the right eye and the feature amount of the eyeball in the left eye is greater than or equal to a threshold value, the feature amount correction unit and the feature amount of the eyeball in the right eye and the left eye Performing correction to match one of the feature quantities of the eyeball in the eye with the other feature quantity;
The line-of-sight detection device according to appendix 5, wherein
(Appendix 7)
Each of the plurality of eyeball features registered in the storage unit includes an iris radius of the eyeball,
The line-of-sight detection device further includes an iris radius calculation unit that calculates an iris radius of the human eyeball based on the acquired image,
The feature determination unit determines the eyeball feature of the person based on the feature amount of the eyeball corresponding to the first gazing point and the iris radius.
The line-of-sight detection apparatus according to Supplementary Note 1, wherein
(Appendix 8)
The feature determination unit includes:
Of the plurality of eyeball features registered in the storage unit, the eyeball feature amount corresponding to the first gaze point matches the calculated eyeball feature amount of the person, or the calculated person Determining the eyeball feature closest to the eyeball feature amount to the eyeball feature of the person.
The line-of-sight detection apparatus according to Supplementary Note 1, wherein
(Appendix 9)
The feature determination unit includes:
Two eyeball features whose eyeball feature values corresponding to the first gazing point among the plurality of eyeball features registered in the storage unit are close to the calculated human eyeball feature values are extracted,
The distance between the eyeball feature amount in one eyeball feature of the extracted eyeball feature and the calculated eyeball feature amount, and the eyeball feature amount in the other eyeball feature of the extracted eyeball feature and the calculated eyeball feature Based on the distance to the amount, the feature amount of the eyeball when the person gazes each of the plurality of gazing points is estimated,
Determining a set of estimated eyeball features as the human eyeball features;
The line-of-sight detection apparatus according to Supplementary Note 1, wherein
(Appendix 10)
Computer
Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection method characterized by executing processing.
(Appendix 11)
The plurality of eyeball features in the registration information each include an interpupillary distance between a right eye and a left eye,
In the gaze detection method, after calculating the feature amount of the eyeball of the person, based on the interpupillary distance of the person calculated by the computer based on the image and the interpupillary distance of the eyeball feature, Including a process of correcting the calculated characteristic amount of the eyeball of the person,
When the feature amount of the eyeball is corrected, the computer determines the eyeball feature of the person based on the corrected feature amount of the eyeball and the registration information in the process of determining the eyeball feature of the person. ,
The line-of-sight detection method according to supplementary note 10, characterized by:
(Appendix 12)
In the process of determining the eyeball characteristics of the person, the computer
Two eyeball features whose eyeball feature values corresponding to the first gaze point among the plurality of eyeball features in the registration information are close to the calculated human eyeball feature values are extracted,
The distance between the eyeball feature amount in one eyeball feature of the extracted eyeball feature and the calculated eyeball feature amount, and the eyeball feature amount in the other eyeball feature of the extracted eyeball feature and the calculated eyeball feature Based on the distance to the amount, the feature amount of the eyeball when the person gazes each of the plurality of gazing points is estimated,
Determining a set of estimated eyeball features as the human eyeball features;
The line-of-sight detection method according to supplementary note 10, characterized by:
(Appendix 13)
Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection program that causes a computer to execute processing.

1 視線検出装置
101,702 画像取得部
102,701 注視指示部
103,703 特徴量算出部
104 処理切替部
105 特徴量補正部
106 特徴決定部
107 パラメータ算出部
108 視線算出部
121,123 眼球特徴データベース
122 視線記憶部
2 視線センサ
201 赤外線カメラ
202 赤外線LED
3 入力装置
4 出力装置
5 画像
6 眼球
601,601R,601L 角膜反射
602,602R,602L 瞳孔
7 データベース作成装置
8,8A,8B 車両
9 人物
12 表示装置
13 情報処理装置
15 管理サーバ
16 通信ネットワーク
21 コンピュータ
2101 プロセッサ
2102 主記憶装置
2103 補助記憶装置
2104 入力装置
2105 出力装置
2106 入出力インタフェース
2107 通信制御装置
2108 媒体駆動装置
22 可搬型記録媒体
DESCRIPTION OF SYMBOLS 1 Gaze detection apparatus 101,702 Image acquisition part 102,701 Gaze instruction | indication part 103,703 Feature-value calculation part 104 Process switching part 105 Feature-value correction | amendment part 106 Feature determination part 107 Parameter calculation part 108 Eye-gaze calculation part 121,123 Eyeball characteristic database 122 Line of sight storage unit 2 Line of sight sensor 201 Infrared camera 202 Infrared LED
3 Input device 4 Output device 5 Image 6 Eyeball 601, 601 R, 601 L Corneal reflection 602, 602 R, 602 L Pupil 7 Database creation device 8, 8 A, 8 B Vehicle 9 Person 12 Display device 13 Information processing device 15 Management server 16 Communication network 21 Computer 2101 Processor 2102 Main storage device 2103 Auxiliary storage device 2104 Input device 2105 Output device 2106 Input / output interface 2107 Communication control device 2108 Medium drive device 22 Portable recording medium

Claims (9)

カメラと所定の位置関係にある視点から予め定めた複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴が角膜半径と対応付ける態様で複数登録された記憶部と、
前記複数の注視点のうちの第一の注視点を注視している人物について、前記人物と所定の位置関係にあるカメラによって撮像された画像に基づいて、前記人物の眼球の特徴量を算出する特徴量算出部と、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定する特徴決定部と、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出するパラメータ算出部と、
を備えることを特徴とする視線検出装置。
A storage unit in which a plurality of eyeball features including a set of eyeball feature amounts detected when each of a plurality of gaze points determined in advance from viewpoints in a predetermined positional relationship with the camera is associated with a corneal radius are registered When,
For a person who is gazing at a first gazing point of the plurality of gazing points, a feature amount of the eyeball of the person is calculated based on an image captured by a camera having a predetermined positional relationship with the person. A feature amount calculation unit;
Based on the feature amount of the eyeball corresponding to the first gazing point and the calculated feature amount of the eyeball of the person among the plurality of eyeball features registered in the storage unit, the eyeball feature of the person is obtained. A feature determining unit to determine;
A parameter calculation unit that calculates a calibration parameter for the line of sight of the person based on the feature amounts of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection device comprising:
前記眼球の特徴量は、前記画像に写っている前記人物の眼球における瞳孔の中心と、角膜反射の中心との位置関係を表す値である、
ことを特徴とする請求項1に記載の視線検出装置。
The feature amount of the eyeball is a value representing a positional relationship between the center of the pupil and the center of corneal reflection in the eyeball of the person shown in the image.
The line-of-sight detection apparatus according to claim 1.
前記記憶部に登録された複数の前記眼球特徴は、それぞれ、前記カメラから前記視点までの距離を表す情報を更に含み、
前記視線検出装置は、前記画像に基づいて前記カメラから前記人物までの距離を算出し、算出した前記距離と、前記記憶部に登録された前記距離を表す情報とに基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする請求項2に記載の視線検出装置。
Each of the plurality of eyeball features registered in the storage unit further includes information representing a distance from the camera to the viewpoint,
The line-of-sight detection device calculates a distance from the camera to the person based on the image, and calculates the feature amount based on the calculated distance and information indicating the distance registered in the storage unit A feature amount correction unit that corrects the feature amount of the eyeball calculated by the unit;
The line-of-sight detection apparatus according to claim 2.
前記眼球の特徴量は、前記画像に写っている前記人物の眼球における瞳孔の中心と、角膜反射の中心との位置関係を表す値であり、
前記視線検出装置は、取得した前記画像に写っている右眼における前記眼球の特徴量と、左眼における前記眼球の特徴量との差に基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする請求項1に記載の視線検出装置。
The feature amount of the eyeball is a value representing the positional relationship between the center of the pupil in the eyeball of the person shown in the image and the center of corneal reflection,
The line-of-sight detection device, based on a difference between a feature amount of the eyeball in the right eye and a feature amount of the eyeball in the left eye, which are captured in the acquired image, of the eyeball calculated by the feature amount calculation unit A feature amount correction unit for correcting the feature amount;
The line-of-sight detection apparatus according to claim 1.
前記記憶部に登録された複数の前記眼球特徴は、それぞれ、前記眼球の虹彩半径を含み、
前記視線検出装置は、取得した前記画像に基づいて前記人物の眼球の虹彩半径を算出する虹彩半径算出部、を更に備え、
前記特徴決定部は、前記第一の注視点に対応する前記眼球の特徴量と、前記虹彩半径とに基づいて、前記人物の眼球特徴を決定する、
ことを特徴とする請求項1に記載の視線検出装置。
Each of the plurality of eyeball features registered in the storage unit includes an iris radius of the eyeball,
The line-of-sight detection device further includes an iris radius calculation unit that calculates an iris radius of the human eyeball based on the acquired image,
The feature determination unit determines the eyeball feature of the person based on the feature amount of the eyeball corresponding to the first gazing point and the iris radius.
The line-of-sight detection apparatus according to claim 1.
前記特徴決定部は、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量と一致する眼球特徴、又は算出した前記人物の眼球の特徴量に最も近い眼球特徴を、前記人物の眼球特徴に決定する、
ことを特徴とする請求項1に記載の視線検出装置。
The feature determination unit includes:
Of the plurality of eyeball features registered in the storage unit, the eyeball feature amount corresponding to the first gaze point matches the calculated eyeball feature amount of the person, or the calculated person Determining the eyeball feature closest to the eyeball feature amount to the eyeball feature of the person.
The line-of-sight detection apparatus according to claim 1.
前記特徴決定部は、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量に近い2個の眼球特徴を抽出し、
抽出した前記眼球特徴の一方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、及び抽出した前記眼球特徴の他方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、に基づいて、前記人物が前記複数の注視点のそれぞれを注視したときの眼球の特徴量を推定し、
推定した前記眼球の特徴量の組を前記人物の眼球特徴に決定する、
ことを特徴とする請求項1に記載の視線検出装置。
The feature determination unit includes:
Two eyeball features whose eyeball feature values corresponding to the first gazing point among the plurality of eyeball features registered in the storage unit are close to the calculated human eyeball feature values are extracted,
The distance between the eyeball feature amount in one eyeball feature of the extracted eyeball feature and the calculated eyeball feature amount, and the eyeball feature amount in the other eyeball feature of the extracted eyeball feature and the calculated eyeball feature Based on the distance to the amount, the feature amount of the eyeball when the person gazes each of the plurality of gazing points is estimated,
Determining a set of estimated eyeball features as the human eyeball features;
The line-of-sight detection apparatus according to claim 1.
コンピュータが、
カメラから取得した、予め定めた複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、前記人物の眼球の特徴量を算出し、
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理を実行することを特徴とする視線検出方法。
Computer
Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection method characterized by executing processing.
カメラから取得した、予め定めた複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、前記人物の眼球の特徴量を算出し、
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理をコンピュータに実行させる視線検出プログラム。
Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection program that causes a computer to execute processing.
JP2016109305A 2016-05-31 2016-05-31 Sight line detection device, sight line detection method and sight line detection program Pending JP2017213191A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016109305A JP2017213191A (en) 2016-05-31 2016-05-31 Sight line detection device, sight line detection method and sight line detection program
US15/491,539 US20170344110A1 (en) 2016-05-31 2017-04-19 Line-of-sight detector and line-of-sight detection method
EP17167719.8A EP3251584A1 (en) 2016-05-31 2017-04-24 Line-of-sight detector and line-of-sight detection method
CN201710352566.4A CN107440678A (en) 2016-05-31 2017-05-18 Line-of-sight detection device and method for detecting sight line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016109305A JP2017213191A (en) 2016-05-31 2016-05-31 Sight line detection device, sight line detection method and sight line detection program

Publications (1)

Publication Number Publication Date
JP2017213191A true JP2017213191A (en) 2017-12-07

Family

ID=58632247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016109305A Pending JP2017213191A (en) 2016-05-31 2016-05-31 Sight line detection device, sight line detection method and sight line detection program

Country Status (4)

Country Link
US (1) US20170344110A1 (en)
EP (1) EP3251584A1 (en)
JP (1) JP2017213191A (en)
CN (1) CN107440678A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508679A (en) * 2018-11-19 2019-03-22 广东工业大学 Realize method, apparatus, equipment and the storage medium of eyeball three-dimensional eye tracking
CN113808160A (en) * 2021-08-05 2021-12-17 虹软科技股份有限公司 Sight direction tracking method and device

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6751324B2 (en) * 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ Iris detection device, iris detection method, and program
KR101776944B1 (en) * 2017-01-09 2017-09-08 주식회사 쓰리이 Method for coding iris pattern
CN111513670B (en) * 2018-12-21 2023-10-10 托比股份公司 Estimation of corneal radius for use in eye tracking
JP7192570B2 (en) * 2019-02-27 2022-12-20 株式会社Jvcケンウッド Recording/playback device, recording/playback method and program
CN109976535B (en) * 2019-05-05 2022-12-02 北京七鑫易维信息技术有限公司 Calibration method, device, equipment and storage medium
CN110310373B (en) * 2019-06-28 2023-12-12 京东方科技集团股份有限公司 Image processing method of augmented reality equipment and augmented reality equipment
CN112307839A (en) * 2019-07-31 2021-02-02 深圳熙卓科技有限公司 Abnormal person detection method and terminal equipment
KR102097390B1 (en) * 2019-10-10 2020-04-06 주식회사 메디씽큐 Smart glasses display device based on eye tracking
CN111459271B (en) * 2020-03-27 2024-03-08 Oppo广东移动通信有限公司 Gaze offset error determination method and device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0735966A (en) 1993-06-28 1995-02-07 Nikon Corp Line-of-sight detecting device and camera equipped therewith
JP2000010723A (en) 1998-06-18 2000-01-14 Mr System Kenkyusho:Kk Calibration method for sight sensor, sight input device, and program storage medium
US7533989B2 (en) * 2003-12-25 2009-05-19 National University Corporation Shizuoka University Sight-line detection method and device, and three-dimensional view-point measurement device
JP5529660B2 (en) * 2010-07-20 2014-06-25 パナソニック株式会社 Pupil detection device and pupil detection method
JP6217445B2 (en) * 2013-03-07 2017-10-25 株式会社Jvcケンウッド Diagnosis support apparatus and diagnosis support method
JP2015144635A (en) * 2014-01-31 2015-08-13 株式会社Jvcケンウッド detection device and detection method
CN106163418B (en) * 2014-03-25 2019-06-18 Jvc建伍株式会社 Detection device and detection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508679A (en) * 2018-11-19 2019-03-22 广东工业大学 Realize method, apparatus, equipment and the storage medium of eyeball three-dimensional eye tracking
CN109508679B (en) * 2018-11-19 2023-02-10 广东工业大学 Method, device and equipment for realizing three-dimensional eye gaze tracking and storage medium
CN113808160A (en) * 2021-08-05 2021-12-17 虹软科技股份有限公司 Sight direction tracking method and device
CN113808160B (en) * 2021-08-05 2024-01-16 虹软科技股份有限公司 Sight direction tracking method and device

Also Published As

Publication number Publication date
EP3251584A1 (en) 2017-12-06
US20170344110A1 (en) 2017-11-30
CN107440678A (en) 2017-12-08

Similar Documents

Publication Publication Date Title
JP2017213191A (en) Sight line detection device, sight line detection method and sight line detection program
CN105247448B (en) The calibration of eye position
CN107004275B (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
US9804395B2 (en) Range calibration of a binocular optical augmented reality system
JP5923603B2 (en) Display device, head mounted display, calibration method, calibration program, and recording medium
WO2015190204A1 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
KR101471488B1 (en) Device and Method for Tracking Sight Line
JPWO2018030515A1 (en) Gaze detection device
US11244145B2 (en) Information processing apparatus, information processing method, and recording medium
JP7168953B2 (en) Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
US20200401805A1 (en) Image processing apparatus and method of controlling the same
JP3372926B2 (en) Head mounted display device and head mounted display system
JP2015152938A (en) information processing apparatus, information processing method, and program
CN111527466A (en) Information processing apparatus, information processing method, and program
US20210224591A1 (en) Methods and systems for training an object detection algorithm
KR100903490B1 (en) Ergonomic Human Computer Interface
JP2021018729A (en) Personal identification apparatus, head-mounted display, content distribution server, and personal identification method
US20130321608A1 (en) Eye direction detecting apparatus and eye direction detecting method
JP6496917B2 (en) Gaze measurement apparatus and gaze measurement method
US11703682B2 (en) Apparatus configured to display shared information on plurality of display apparatuses and method thereof
JP2011192220A (en) Device, method and program for determination of same person
WO2024047990A1 (en) Information processing device
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
WO2020250270A1 (en) Operational assistance system and operational assistance method
US20210134004A1 (en) Information processing device, information processing method, and program