JP2017213191A - Sight line detection device, sight line detection method and sight line detection program - Google Patents
Sight line detection device, sight line detection method and sight line detection program Download PDFInfo
- Publication number
- JP2017213191A JP2017213191A JP2016109305A JP2016109305A JP2017213191A JP 2017213191 A JP2017213191 A JP 2017213191A JP 2016109305 A JP2016109305 A JP 2016109305A JP 2016109305 A JP2016109305 A JP 2016109305A JP 2017213191 A JP2017213191 A JP 2017213191A
- Authority
- JP
- Japan
- Prior art keywords
- eyeball
- feature
- feature amount
- line
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
- A61B3/15—Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
- A61B3/152—Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、視線検出装置、視線検出方法、及び視線検出プログラムに関する。 The present invention relates to a line-of-sight detection device, a line-of-sight detection method, and a line-of-sight detection program.
人物の視線を検出する視線検出技術は、視線により情報を入力する入力装置や、車両を運転している人物の運転中の視線の記録等に適用されている。視線の検出方法の一つとして、人物の眼球の画像における瞳孔の位置と角膜反射の位置とに基づいて人物の視線を検出する瞳孔−角膜反射法が知られている。 The line-of-sight detection technology for detecting a person's line of sight is applied to an input device that inputs information by line of sight, recording of the line of sight of a person driving a vehicle, and the like. As one of gaze detection methods, a pupil-cornea reflection method is known that detects a gaze of a person based on the position of the pupil and the position of corneal reflection in an image of the human eyeball.
視線検出技術においては、人物の視線を精度良く検出するため、眼球の特徴に基づいて視線の方向を較正する処理(キャリブレーション)が行われる。 In the line-of-sight detection technique, in order to accurately detect the line of sight of a person, a process (calibration) for calibrating the direction of the line of sight based on the characteristics of the eyeball is performed.
瞳孔−角膜反射法におけるキャリブレーションでは、人物に所定の注視点を注視させた状態での瞳孔の位置と角膜反射の位置とに基づいて検出した視線と、当該人物から見た注視点の方向とに基づいて、視線の較正に用いる較正パラメータを算出する。 In the calibration in the pupil-corneal reflection method, the line of sight detected based on the position of the pupil and the position of the corneal reflection in a state in which a person is gazing at a predetermined gazing point, the direction of the gazing point viewed from the person, Based on the above, a calibration parameter used for line-of-sight calibration is calculated.
キャリブレーションを行って較正パラメータを算出する際には、検出対象である人物に複数の注視点を注視させる。 When performing calibration and calculating calibration parameters, a person as a detection target is caused to gaze at a plurality of gazing points.
また、上記の視線検出技術として、複数の観察者に対応して複数のパラメータの組を記憶しておき、現在の観察者における眼球の特徴に基づいて最適なパラメータの組を選択して視線を算出するという技術が知られている(例えば特許文献1を参照)。この種の視線検出技術は、観察者の交代等により検出対象である観察者の眼球の状態が変わっても、これに簡易、迅速かつ正確に対応することを可能にする。 In addition, as the above-described line-of-sight detection technique, a plurality of parameter sets are stored corresponding to a plurality of observers, and an optimal set of parameters is selected based on the characteristics of the eyeball of the current observer, and the line of sight is detected. A technique of calculating is known (see, for example, Patent Document 1). This type of line-of-sight detection technology makes it possible to easily, quickly and accurately respond to changes in the state of the eyeball of the observer that is the detection target due to changes in the observer.
更に、上記の視線検出技術として、初期キャリブレーションを行い視線の検出を開始した後も、動的にキャリブレーションを繰り返すことで、視線の検出精度を高める技術が知られている(例えば、特許文献2を参照)。 Further, as the above-described line-of-sight detection technique, a technique for improving the line-of-sight detection accuracy is known by dynamically repeating calibration even after initial calibration is performed and line-of-sight detection is started (for example, Patent Documents). 2).
キャリブレーションを行って視線に対する較正パラメータを算出する際には、検出対象である人物に複数の注視点(例えば、4〜9点の注視点)を注視させている。すなわち、1回のキャリブレーションにおいて、注視点を指定して人物に注視させ、当該人物が注視点を注視している状態の画像を取得するという処理を複数回行うこととなる。このように複数の注視点を注視させることは、検出対象の人物にとって負担となる。 When calculating calibration parameters for the line of sight by performing calibration, a person who is a detection target is gazes at a plurality of gaze points (for example, 4 to 9 gaze points). That is, in one calibration, a process of specifying a gazing point to cause a person to gaze and acquiring an image in a state where the person is gazing at the gazing point is performed a plurality of times. It is a burden for the person to be detected to gaze at a plurality of gaze points in this way.
1つの側面において、本発明は、視線検出におけるキャリブレーション時の検出対象人物の負担を軽減することを目的とする。 In one aspect, an object of the present invention is to reduce a burden on a detection target person during calibration in line-of-sight detection.
1つの態様では、視線検出装置は、記憶部と、特徴量算出部と、特徴決定部と、パラメータ算出部と、を備える。記憶部には、カメラと所定の位置関係にある視点から予め定めた複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴が角膜半径と対応付ける態様で複数登録されている。特徴量算出部は、カメラから取得した複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、人物の眼球の特徴量を算出する。特徴決定部は、記憶部に登録された複数の眼球特徴のうちの第一の注視点に対応する眼球の特徴量と、算出した人物の眼球の特徴量とに基づいて、人物の眼球特徴を決定する。パラメータ算出部は、決定した眼球特徴に含まれる複数の眼球の特徴量に基づいて、人物の視線に対する較正パラメータを算出する。 In one aspect, the visual line detection device includes a storage unit, a feature amount calculation unit, a feature determination unit, and a parameter calculation unit. In the storage unit, a plurality of eyeball features including a set of eyeball feature amounts detected when each of a plurality of gaze points determined in advance from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius. It is registered. The feature amount calculation unit calculates the feature amount of the eyeball of the person based on the image of the person gazing at the first gazing point among the plurality of gazing points acquired from the camera. The feature determination unit determines the eyeball feature of the person based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features registered in the storage unit and the calculated feature amount of the eyeball of the person. decide. The parameter calculation unit calculates a calibration parameter for the line of sight of the person based on the feature amounts of the plurality of eyeballs included in the determined eyeball feature.
上述の態様によれば、視線検出におけるキャリブレーション時の検出対象人物の負担が軽減される。 According to the above-described aspect, the burden on the person to be detected at the time of calibration in line-of-sight detection is reduced.
[第1の実施形態]
図1は、第1の実施形態に係る視線検出装置の機能的構成を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a functional configuration of the visual line detection device according to the first embodiment.
図1に示すように、本実施形態に係る視線検出装置1は、画像取得部101と、注視指示部102と、特徴量算出部103と、処理切替部104と、特徴量補正部105と、特徴決定部106と、パラメータ算出部107と、視線算出部108と、を備える。更に、視線検出装置1は、眼球特徴データベース121と、視線記憶部122と、を備える。本実施形態の視線検出装置1は、瞳孔−角膜反射法により、視線の検出対象である人物(以下、対象人物という)の視線を検出する。
As shown in FIG. 1, the line-of-
画像取得部101は、赤外線カメラ201で撮像した赤外線画像(以下、単に画像という)を取得する。赤外線カメラ201は、所定の空間領域、或いは所定の表示装置の表示面を観察する対象人物の眼球を含む画像の撮像に用いる撮像装置である。赤外線カメラ201は、例えば、赤外線発光ダイオード(Light Emitting Diode:LED)202等の赤外線を発する光源と組み合わせて用いる。赤外線カメラ201と赤外線LED 202との組(以下、視線センサ2という)において、赤外線LED 202は、赤外線カメラ201の撮像範囲を含む空間に向けて赤外線を発する態様で、赤外線カメラ201の近傍に設置される。赤外線カメラ201は、赤外線LED 202が発した赤外線を照射された対象人物の眼球を含む画像を撮像し、画像取得部101に送信する。
The
また、視線検出装置1において対象人物の視線を較正する処理(キャリブレーション)を行う場合、画像取得部101は、対象人物に注視点を注視させる処理を注視指示部102に実行させる。なお、本明細書における視線を較正する処理は、対象人物の視線を検出する処理で用いる較正パラメータを決定する処理を意味する。
Further, when performing the process (calibration) of calibrating the line of sight of the target person in the line-of-
画像取得部101は、入力装置3から入力された情報に基づいて、対象人物に注視点を注視させる処理を行うか否かを判定する。入力装置3は、釦スイッチやタッチパネル装置等であり、例えば、視線検出装置1に視線検出処理を開始させる命令、視線のキャリブレーションを実行させる命令等の入力に用いる。入力装置3から入力された情報が、視線のキャリブレーションを含む処理を実行させる命令である場合、画像取得部101は、対象人物に注視点を注視させる処理を注視指示部102に実行させる。
Based on the information input from the
注視指示部102は、出力装置4を利用して、対象人物に注視させる位置(注視点)を対象人物に通知する処理を行う。例えば、出力装置4が表示装置である場合、注視指示部102は、表示装置の表示面に注視点を示す画像を表示させる。また、出力装置4がスピーカである場合、注視指示部102は、予め用意された音声信号をスピーカに出力する。
The
特徴量算出部103は、赤外線カメラ201から取得した画像に基づいて、当該画像に写っている対象人物の眼球の特徴量を算出する。特徴量算出部103は、右眼及び左眼のそれぞれにおける角膜反射の中心及び瞳孔の中心を画像から抽出し、それらの位置関係を眼球の特徴量として算出する。角膜反射の位置と瞳孔の位置との位置関係は、例えば、画像内における、角膜反射の中心位置から見た瞳孔の中心位置を表す二次元の座標とする。
Based on the image acquired from the
処理切替部104は、入力装置3から入力された情報と、パラメータ算出部107から入力される情報とに基づいて、視線を較正する処理と、視線を検出する処理とを切り替える。入力装置3から入力された情報に視線を較正する処理の実行を指示する情報が含まれ、かつ当該情報が入力された後の較正パラメータが決定していない場合、処理切替部104は、視線検出装置1で行う処理をキャリブレーション(視線を較正する処理)に切り替える。一方、入力装置3から入力された情報に視線を較正する処理の実行を指示する情報が含まれない場合、又は較正パラメータが既に決定している場合、処理切替部104は、視線検出装置1で行う処理を、視線を算出する処理に切り替える。
The
特徴量補正部105は、特徴量算出部103で抽出した瞳孔の位置に基づいて両眼の瞳孔間距離を算出した後、必要に応じて眼球の特徴量を補正する。特徴量補正部105は、算出した瞳孔間距離と、予め設定された瞳孔間距離とが異なる場合に、算出した瞳孔間距離と、予め設定された瞳孔間距離との比に基づいて、眼球の特徴量を補正する。予め設定された瞳孔間距離は、眼球特徴データベース121に登録されている。
The feature
特徴決定部106は、特徴量算出部103で算出した眼球の特徴量(特徴量補正部105で補正した場合には補正後の眼球の特徴量)と、眼球特徴データベース121とに基づいて、対象人物の眼球特徴を決定する。眼球特徴データベース121には、眼球特徴の異なる複数の人物の各々が、複数の注視点のそれぞれを注視したときの眼球の特徴量が登録されている。特徴決定部106は、対象人物が複数の注視点のうちのいずれか一点を注視しているときの画像から算出した眼球の特徴量(又は特徴量補正部105で補正した眼球の特徴量)と、眼球特徴データベース121とに基づいて、対象人物の眼球特徴を決定する。すなわち、特徴決定部106は、対象人物が複数の注視点のうちのいずれか一点を注視しているときの眼球の特徴量と、眼球特徴データベース121とに基づいて、対象人物が複数の注視点のそれぞれを注視しているときの眼球の特徴量を決定する。
Based on the eyeball feature amount calculated by the feature amount calculation unit 103 (or the corrected eyeball feature amount when corrected by the feature amount correction unit 105) and the
パラメータ算出部107は、特徴決定部106で決定した眼球特徴に基づいて、対象人物の視線に対する較正パラメータを算出する。パラメータ決定部107は、較正パラメータを算出した後、算出した較正パラメータを視線算出部108に送信するとともに、較正パラメータを算出したことを処理切替部104に通知する。
The
視線算出部108は、特徴量算出部103で算出した眼球の特徴量と、較正パラメータとに基づいて、対象人物の視線を算出する。視線算出部108は、算出した対象人物の視線を視線記憶部122に時系列に記憶させる。
The line-of-
図2は、眼球特徴データベースの例を示す図である。図3は、眼球の特徴量及び瞳孔間距離を説明する図である。 FIG. 2 is a diagram illustrating an example of an eyeball feature database. FIG. 3 is a diagram for explaining the feature amount of the eyeball and the inter-pupil distance.
図2に示すように、眼球特徴データベース121は、識別子(ID)と、注視点を注視しているときの眼球の特徴量(PG1〜PG5)と、瞳孔間距離(PD)とを含む。
As shown in FIG. 2, the
識別子(ID)は、眼球特徴データベース121に登録された、眼球特徴を含むレコードを識別する値である。図2の眼球特徴データベース121では、一人の人物についての眼球特徴を右眼の眼球特徴と左眼の眼球特徴とにわけ、それぞれに別個の識別子を付与している。
The identifier (ID) is a value for identifying a record including an eyeball feature registered in the
注視点を注視しているときの眼球の特徴量は、注視点を注視しているときに撮像した画像における、角膜反射の中心から見た瞳孔の中心の相対位置を表す二次元の座標である。図2の眼球特徴データベース121では、1個の識別子(レコード)に対する眼球特徴として、5個の注視点PG1〜PG5のそれぞれについての眼球の特徴量が登録されている。
The feature amount of the eyeball when gazing at the gazing point is a two-dimensional coordinate representing the relative position of the center of the pupil viewed from the center of corneal reflection in the image captured when gazing at the gazing point. . In the
瞳孔間距離(PD)は、眼球特徴データベース121の作成に用いた画像における右眼の瞳孔と左眼の瞳孔との距離である。眼球特徴データベース121の作成には、赤外線カメラ201から人物までの距離が所定の距離(例えば600mm)である状態で撮像した人物の画像を用いる。すなわち、眼球特徴データベース121における瞳孔間距離は、赤外線カメラ201から人物までの距離が所定の距離であるときの瞳孔間距離である。
The interpupillary distance (PD) is the distance between the right eye pupil and the left eye pupil in the image used to create the
このように、眼球特徴データベース121に登録された複数のレコードは、それぞれ、一人の人物が5個の注視点PG1〜PG5のそれぞれを注視したときの眼球の特徴量と、瞳孔間距離とを含む。
As described above, the plurality of records registered in the
視線検出装置1が取得する画像は、上記のように、赤外線を対象人物の顔面に照射した状態で、赤外線カメラ201により撮像した対象人物の眼球を含む画像である。そのため、図3の(a)に示すように、取得した画像5における眼球6の部分には、赤外線による角膜反射601が写っている。
The image acquired by the line-of-
瞳孔−角膜反射法により視線を検出する視線検出装置1では、例えば、角膜反射601の中心Q1を基準点とし、基準点Q1から見た瞳孔602の中心Q2の相対位置に基づいて、視線を検出する。この際、視線検出装置1は、画像5に基づいて算出した視線と、対象人物の実際の視線との誤差を低減し、精度良く視線を検出するためのキャリブレーションを行う。
In the line-of-
本実施形態に係る視線検出装置1では、予め定めた複数の注視点のうちのいずれか1点を対象人物が注視している画像を取得し、当該画像における眼球の特徴量と、眼球特徴データベースとに基づいてキャリブレーションを行う。対象人物に注視させる注視点は、眼球特徴データベースを作成する際に設定した複数の注視点のうちのいずれか1点とする。図2の眼球特徴データベース121を利用してキャリブレーションを行う場合、視線検出装置1は、5個の注視点PG1〜PG5のうちのいずれか1点を対象人物が注視している画像を取得してキャリブレーションを行う。
In the line-of-
視線検出装置1は、対象人物が指定した1点(注視点)を注視している状態で撮像した画像5を取得し、取得した画像5における右眼の特徴量及び左眼の特徴量を算出する。その後、視線検出装置1は、画像5における瞳孔間距離と、眼球特徴データベース121の瞳孔間距離とに基づき、必要に応じて画像5における右眼の特徴量及び左眼の特徴量を補正する。図3の(b)に示すように、赤外線カメラ201から取得した画像5には、対象人物の右眼6Rと左眼6Lとが写っている。瞳孔間距離PDは、画像5上における右眼6Rの瞳孔602Rの中心Q2Rと、左眼6Lの瞳孔602Lの中心Q2Lとの距離(画素差)である。画像5において、右眼6Rの瞳孔602Rの中心Q2Rを含む画素が座標(PRx,PRy)で表され、左眼6Lの瞳孔602Lの中心Q2Lを含む画素が座標(PLx,PLy)で表されるとすると、瞳孔間距離PDは、下記式(1)により算出される。
The line-of-
例えば、画像5における右眼6Rの瞳孔602Rの中心Q2Rを含む画素が座標(173,124)の画素であり、左眼6Lの瞳孔602Lの中心Q2Lを含む画素が座標(275,131)の画素である場合、瞳孔間距離PDは102.2(pix)となる。この場合、画像5から算出した瞳孔間距離は、画像特徴データベース121における瞳孔間距離とは異なる。そのため、視線検出装置1(特徴量補正部105)は、算出した瞳孔間距離とデータベースの瞳孔間距離との比に基づいて、算出した眼球の特徴量を補正する。例えば、画像5から算出した右眼の特徴量が(0,−2)であった場合、特徴量補正部105は、瞳孔間距離の比に基づいて、当該特徴量を(0×100/102.2,−2×100/102.2)≒(0,−1.95)に補正する。
For example, the pixel including the center Q2R of the
眼球の特徴量を補正した場合、視線検出装置1(特徴決定部106)は、眼球特徴データベース121における対象人物に注視させた注視点の眼球の特徴量を参照し、補正後の特徴量と一致する特徴量を含むレコードを抽出する。抽出したレコードは、5個の注視点PG1〜PG5を注視したときの眼球の特徴量を含む。このため、特徴決定部106は、抽出したレコードに含まれる5個の眼球の特徴量を、それぞれ、対象人物が5個の注視点PG1〜PG5を注視したときの眼球の特徴量に決定する。特徴決定部106は、右眼及び左眼のそれぞれで、対象人物が5個の注視点PG1〜PG5を注視したときの眼球の特徴量に決定する。その後、視線検出装置1(パラメータ算出部107)は、決定した右眼についての5個の眼球の特徴量、及び左眼についての5個の眼球の特徴量に基づいて、較正パラメータを算出する。
When the feature amount of the eyeball is corrected, the line-of-sight detection device 1 (feature determination unit 106) refers to the feature amount of the eyeball of the gazing point that is focused on the target person in the
このように、本実施形態の視線検出装置1では、対象人物が1個の注視点を注視しているときの画像と、画像特徴データベース121とに基づいて、対象人物が複数の注視点のそれぞれを注視しているときの眼球の特徴量を決定し、較正パラメータを算出する。すなわち、本実施形態の視線検出装置1において1回のキャリブレーションで対象人物に注視させる注視点は1個(1点)でよい。このため、本実施形態によれば、キャリブレーション時に対象人物に注視点を注視させる負担を軽減することが可能となる。
As described above, in the line-of-
上記の眼球特徴データベース121は、例えば、図4に示したデータベース作成装置7により作成する。
The above
図4は、データベース作成装置の機能的構成を示す図である。
図4に示すように、データベース作成装置7は、注視指示部701と、画像取得部702と、特徴量算出部703と、距離算出部704と、登録部705と、眼球特徴データベース121と、を備える。
FIG. 4 is a diagram illustrating a functional configuration of the database creation device.
As illustrated in FIG. 4, the
注視指示部701は、入力装置3から眼球特徴の登録処理を開始する命令が入力されると、対象人物に注視させる注視点を指示する情報を生成し、生成した情報を出力装置4に送信する。注視指示部701は、注視点を指示する情報を出力装置4に送信した後、画像取得部702に対象人物の画像を取得させる。
When a command for starting eye feature registration processing is input from the
画像取得部702は、視線センサ2の赤外線カメラ201で撮像した、対象人物の眼球を含む画像を取得する。視線センサ2(赤外線カメラ201及び赤外線LED 202)には、視線検出装置1と組み合わせて用いる視線センサ2と同じ条件で画像を撮像可能なものを用いる。
The
特徴量算出部703は、赤外線カメラ201から取得した画像から瞳孔及び角膜反射を抽出し、当該画像に写っている対象人物の眼球の特徴量を算出する。データベース作成装置7の特徴量算出部703は、視線検出装置1の特徴量算出部103と同様、眼球の特徴量として、右眼及び左眼のそれぞれにおける角膜反射の中心と瞳孔の中心との位置関係を表す値を算出する。角膜反射の中心と瞳孔の中心との位置関係は、例えば、角膜反射の中心から見た瞳孔の中心の相対位置を表す二次元の座標とする。
The feature
距離算出部704は、画像内における右眼の瞳孔の中心と、左眼の瞳孔の中心との瞳孔間距離(画素差)を算出する。
The
登録部705は、特徴量算出部703で算出した眼球の特徴量と、距離算出部704で算出した瞳孔間距離との組を眼球特徴データベース121に登録する。登録部705は、右眼の特徴量と瞳孔間距離との組に右眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。また、登録部705は、左眼の特徴量と瞳孔間距離との組に左眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。
The
データベース作成装置7のオペレータ或いは対象人物が入力装置3を操作して眼球特徴の登録処理を開始する命令を入力すると、データベース作成装置7は、図5に示す処理を開始する。
When the operator of the
図5は、第1の実施形態に係る眼球特徴データベースの作成処理を説明するフローチャートである。 FIG. 5 is a flowchart for explaining eyeball feature database creation processing according to the first embodiment.
データベース作成装置7は、まず、複数の注視点のうちの1個の注視点を指定し(ステップS11)、指定した注視点を注視している人物の眼球を含む画像を取得する(ステップS12)。その後、データベース作成装置7は、複数の注視点を全て指定したか否かを判定する(ステップS13)。そして、指定していない注視点がある場合(ステップS13;No)、データベース作成装置7は、ステップS11及びS12の処理を繰り返す。ステップS11の処理は、注視指示部701が行う。ステップS12の処理は、画像取得部702が赤外線カメラ201と協働して行う。ステップS13の判定は、注視指示部701又は画像取得部702が行う。
First, the
ステップS11において、注視指示部701は、所定の指定規則に従って、予め定めた複数の注視点のうちの1個の注視点を指定する。指定規則は、例えば、一人の人物に対する処理において指定していない注視点のうち、予め設定された指定順序において1番目となる注視点を指定する、という規則とする。
In step S11, the
注視点を指定した後、注視指示部701は、出力装置4を用いて指定した注視点を人物に通知して当該注視点を注視させる。例えば、出力装置4がスピーカである場合、注視指示部701は、指定した注視点を注視させる音声を含む音声信号を出力装置4に出力する。また、出力装置4が表示装置である場合、注視指示部701は、注視点を表す像を含む画像信号を出力装置4に出力する。注視指示部701は、出力装置4を用いて人物に注視点を注視させた後、画像取得部702に注視点を注視している人物の眼球を含む画像を取得させる。
After designating the gaze point, the
ステップS12において、画像取得部702は、視線センサ2の赤外線カメラ201に画像を撮像させ、赤外線カメラ201が撮像した画像を取得する。
In step S12, the
注視指示部701及び画像取得部702は、予め定めた複数の注視点の全てを指定し、一人の人物が複数の注視点のそれぞれを注視している複数枚の画像を取得するまで、上記の処理を繰り返す。ステップS13の判定を注視指示部701で行う場合、画像取得部702は、画像を取得する毎に、画像を取得したことを注視指示部701に通知する。画像取得部702からの通知を受けると、注視指示部701は、ステップS13の判定を行う。指定していない注視点がある場合(ステップS13;No)、注視指示部701は、次の注視点を指定して対象人物に当該注視点を注視させるとともに、画像取得部702に画像を取得させる。一方、全ての注視点が指定済みである場合(ステップS13;Yes)、データベース作成装置7は、次に、複数枚の画像のそれぞれから瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS14)。
The
これに対し、ステップS13の判定を画像取得部702で行う場合、画像取得部702は、ステップS13の判定として、一人の人物が全ての注視点のそれぞれを注視している画像を取得したか否かの判定をする。画像を取得していない注視点がある場合(ステップS13;No)、画像取得部702は、注視指示部701に次の注視点を指定させる。一方、全ての注視点を注視させて画像を取得した場合(ステップS13;Yes)、データベース作成装置7は、次に、複数枚の画像のそれぞれから瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS14)。
On the other hand, when the determination in step S13 is performed by the
ステップS14の処理は、特徴量算出部703が行う。特徴量算出部703は、既知の瞳孔−角膜反射法における瞳孔及び角膜反射の抽出方法に従って、取得した画像から、右眼の瞳孔及び角膜反射と、左眼の瞳孔及び角膜反射と、を抽出する。その後、特徴量算出部703は、右眼の角膜反射の中心と瞳孔の中心との位置関係に基づいて、各注視点を注視しているときの右眼の眼球の特徴量(右眼の特徴量)を算出する。また、特徴量抽出部703は、左眼の角膜反射の中心と瞳孔の中心との位置関係に基づいて、各注視点を注視しているときの左眼の眼球の特徴量(左眼の特徴量)を算出する。特徴量算出部703は、複数枚の画像のそれぞれから抽出した右眼の特徴量及び左眼の特徴量を、各画像の撮像時に人物が注視している注視点と対応付けて距離算出部704に送信する。
The feature
ステップS14の処理を終えると、データベース作成装置7は、次に、各画像から抽出した瞳孔の位置に基づいて瞳孔間距離を算出する(ステップS15)。ステップS15の処理は、距離算出部704が行う。例えば、距離算出部704は、まず、注視点が異なる複数枚の画像のそれぞれで右眼の瞳孔の中心と左眼の瞳孔の中心との瞳孔間距離(画素数)を算出する。その後、距離算出部704は、算出した複数の瞳孔間距離の平均値を算出し、これを画像に写っている人物の瞳孔間距離とする。距離算出部704は、特徴量算出部703から受け取った右眼及び左眼の特徴量と、自身が算出した瞳孔間距離とを、登録部705に送信する。
When the processing in step S14 is completed, the
ステップS15の処理を終えると、データベース作成装置7は、次に、登録部705において各画像から算出した右眼の特徴量及び左眼の特徴量と、瞳孔間距離とを眼球特徴データベース121に登録する処理を行う(ステップS16)。登録部705は、各注視点を注視しているときの右眼の特徴量と、瞳孔間距離との組に右眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。この際、右眼の特徴量は、それぞれ、眼球特徴データベース121における複数の注視点のうちの各右眼の特徴量と対応付けられた注視点のフィールドに登録する。また、登録部705は、各注視点を注視しているときの左眼の特徴量と、瞳孔間距離との組に左眼用の識別子を付与し、1件のレコードとして眼球特徴データベース121に登録する。この際、左眼の特徴量は、それぞれ、眼球特徴データベース121における複数の注視点のうちの各左眼の特徴量と対応付けられた注視点のフィールドに登録する。
When the processing of step S15 is completed, the
ステップS16の処理を終えると、データベース作成装置7は、眼球特徴データベースの作成処理を続けるか否かを判定する(ステップS17)。ステップS17の判定では、データベース作成装置7は、例えば、作成処理を続けるか否かを示す情報の入力を待つ。そして、例えば、オペレータが入力装置3を操作して作成処理を続けることを表す情報を入力した場合、すなわち作成処理を続ける場合(ステップS17;Yes)、データベース作成装置7は、ステップS11〜S16の処理を行う。一方、オペレータが入力装置3を操作して作成処理を終了することを表す情報を入力した場合、すなわち作成処理を続けない場合(ステップS17;No)、データベース作成装置7は、作成処理を終了する。
When the process of step S16 is completed, the
上記の手順で作成した眼球特徴データベース121は、例えば、フラッシュメモリを搭載したメモリカードや光ディスク等の可搬型記録媒体、或いは伝送ケーブルを介して視線検出装置1に転送して視線検出装置1の記憶部に格納する。
The
なお、眼球特徴データベース121を作成する際には、上記のように、角膜半径(眼球の大きさ)の異なる複数の人物の各々が複数の注視点を注視したときの眼球の特徴量及び瞳孔間距離を算出して登録する。この際、例えば、角膜半径は6.0mm〜9.0mmの範囲を0.1mm間隔で刻み、各角膜半径における眼球の特徴量を眼球登録データベース121に登録することが好ましい。角膜半径は、例えば、ケラトメータ等の専用の測定機器により計測可能である。また、眼球特徴データベース121に登録する眼球の特徴量は、人物の眼球を撮像した画像から算出する代わりに、例えば、コンピュータ上で再現した眼球モデルを用いて算出してもよい。
When the
また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、図2に示したデータベース121に限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。
In addition, the eyeball feature information including a set of eyeball feature quantities when each of a plurality of gaze points is prepared is not limited to the
図6は、視線検出装置の適用例を示す図である。
本実施形態の視線検出装置1は、例えば、図6の(a)及び(b)に示すように、車両8を運転する対象人物(運転者)9の視線9Sを検出する視線検出システムに適用可能である。この種の視線検出システムは、視線検出装置1と、視線センサ2と、入力装置3と、スピーカ4等の出力装置と、を含む。
FIG. 6 is a diagram illustrating an application example of the visual line detection device.
The line-of-
視線センサ2は、例えば、車両8のダッシュボード801上に、対象人物9と向かい合わせとなるよう設置される。視線検出装置1、入力装置3、及びスピーカ4は、例えば、車両8のセンターコンソール等に設置される。なお、視線検出装置1は、例えば、車両8の運転状態や車両8の周囲の情報を記録するドライブレコーダ(イベントデータレコーダ)に組み込まれていてもよい。
The line-of-
車両8を運転しているときの運転者(対象人物9)の視線9Sは、車両前方はもちろん、図示しない計器類(インストルメントパネル)、車室内のルームミラー802や図示しないドアミラー等にも向けられる。視線検出システムは、例えば、対象人物9の運転中の視線9Sを検出し、視線の履歴を保持する。視線検出システムが保持する視線の履歴は、例えば、対象人物9が安全運転のための適切な視線移動を行っているか否かの判定に用いられる。
The line of
車両8を運転している運転手(対象人物9)の視線9Sを検出する視線検出装置1で用いる眼球特徴データベース121は、例えば、車両8の運転席803に着座させた人物の画像を取得して作成する。
The
図7は、眼球特徴データベース作成時の画像の取得方法を説明する図である。
車両8を運転している対象人物9の視線9Sの検出し視線検出装置1を用いる場合、眼球特徴データベース121は、車両8と同じ車種の車両における運転席803に着座した人物が注視点を注視しているときの画像を取得して作成する。このとき、視線センサ2は、視線検出システムにおける視線センサ2の設置位置と略同一となる位置、すなわちダッシュボード801上の運転席803に着座した人物9と向かい合う位置に設置する。また、運転席803は、図7の(a)に示すように、視線センサ2の赤外線カメラ201から運転席803に着座した人物9の眼球6R,6Lまでの距離Fが所定の距離(例えば600mm)になるよう位置を調節する。
FIG. 7 is a diagram illustrating an image acquisition method when creating an eyeball feature database.
When detecting the line of
この状態で視線センサ2、入力装置3、及びスピーカ4等をデータベース作成装置7に接続し、図5のフローチャートに沿って眼球特徴データベース121を作成する。このとき、データベース作成装置7は、例えば、人物9の眼球6R,6Lよりも車両前方となる位置に設定される複数の注視点を順次注視させ、各注視点を注視しているときの人物9の画像を取得する。複数の注視点は、例えば、図7の(b)に示すように、人物9が車両前方を見ているときの視野10内における4隅PG1,PG2,PG4,及びPG5と、当該視野10の中心PG3の5点とする。5個の注視点PG1〜PG5は、例えば、それぞれシール状のマーカ11A〜11Eを車室内の各点に貼り付けて設ける。
In this state, the line-of-
データベース作成装置7は、例えば、まず人物9に左上の注視点PG1を注視させ、その状態で赤外線カメラ201により撮像した画像を取得する。次に、データベース作成装置7は、人物9に右上の注視点PG2を注視させ、その状態で赤外線カメラ201により撮像した画像を取得する。その後、データベース作成装置7は、人物9が視野10の中心PG3を注視しているときの画像、左下の注視点PG4を注視しているときの画像、及び右下の注視点PG5を注視しているときの画像を順次取得する。そして、データベース作成装置7は、取得した5枚の画像のそれぞれから、右眼及び左眼の特徴量を算出するとともに、瞳孔間距離を算出して、眼球特徴データベース121に登録する。
For example, the
なお、図7の(b)に示した注視点PG1〜PG5は一例に過ぎず、注視点PG1〜PG5の位置や形状、更に注視点の数は、適宜変更可能である。 Note that the gazing points PG1 to PG5 shown in FIG. 7B are merely examples, and the positions and shapes of the gazing points PG1 to PG5 and the number of gazing points can be changed as appropriate.
上記の方法で作成した眼球特徴データベース121を備えた視線検出装置1は、例えば、対象人物(運転手)9が入力装置3を操作して視線の検出処理を開始する命令を入力すると、図8に示す処理を開始する。
For example, when the target person (driver) 9 operates the
図8は、第1の実施形態に係る視線検出装置が行う処理を説明するフローチャートである。 FIG. 8 is a flowchart for describing processing performed by the visual line detection device according to the first embodiment.
図8に示すように、視線検出装置1は、動作を開始すると、まず、較正パラメータ決定処理(ステップS1)を行う。ステップS1では、視線検出装置1は、眼球特徴データベース121を作成する際に設定した複数の注視点のうちのいずれか1個の注視点(第一の注視点)を指定し、対象人物が当該注視点を注視しているときの画像を取得する。その後、視線検出装置1は、指定した1個の注視点を注視している対象人物の画像における瞳孔の中心位置及び角膜反射の中心位置と、眼球特徴データベース121とに基づいて対象人物の眼球特徴を決定する。決定した眼球特徴は、対象人物が複数の注視点のそれぞれを注視したときの眼球の特徴量に相当する複数の眼球の特徴量を含む。そのため、眼球特徴を決定した後、視線検出装置1は、瞳孔−角膜反射法における、対象人物に複数の注視点を注視させて較正パラメータを算出する既知の算出方法に従って、較正パラメータを算出する。
As shown in FIG. 8, when the line-of-
ステップS1の処理は、画像取得部101、注視指示部102、特徴量算出部103、特徴量補正部105、特徴決定部106、及びパラメータ算出部107が行う。
The processing in step S1 is performed by the
ステップS1で較正パラメータを決定した後、視線検出装置1は、視線検出処理(ステップS2)を行う。ステップS2では、視線検出装置1は、対象人物の画像における瞳孔の中心位置及び角膜反射の中心位置と、ステップS1で決定した較正パラメータとに基づいて、対象人物の視線を検出する(算出する)。ステップS2において、視線検出装置1は、瞳孔−膜反射法における既知の視線の算出方法に従って、対象人物の視線の方向や位置等を算出する。
After determining the calibration parameters in step S1, the line-of-
ステップS2の処理は、画像取得部101、特徴量算出部103、及び視線算出部108が行う。
The processing in step S2 is performed by the
図9は、第1の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。 FIG. 9 is a flowchart for explaining the contents of the calibration parameter determination process according to the first embodiment.
較正パラメータ決定処理(ステップS1)において、視線検出装置1は、まず、対象人物が1個の注視点を注視している状態で撮像した、対象人物の眼球を含む画像を取得する(ステップS101)。ステップS101の処理は、画像取得部101と、注視指示部102とが行う。ステップS101において、画像取得部101は、まず、注視指示部102に、対象人物を所定の1個の注視点(第一の注視点)に注視させる処理を行わせる。注視指示部102は、眼球登録データベース121の注視点PG1〜PG5のいずれか1点(例えば注視点PG3)を注視させる音声信号を出力装置(スピーカ)4に出力し、対象人物に注視点PG3を注視させる。その一方で、画像取得部101は、視線センサ2の赤外線カメラ201に、対象人物が所定の注視点(注視点PG3)を注視している状態の画像を撮像させ、赤外線カメラ201で撮像した画像を取得する。その後、画像取得部101は、取得した画像を特徴量算出部103に送信する。
In the calibration parameter determination process (step S1), the line-of-
対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS102)。特徴量抽出部103は、データベース作成装置7の特徴量抽出部703と同様、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心及び角膜反射の中心を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。特徴量算出部103は、瞳孔−角膜反射法における既知の抽出方法に従って、画像内における瞳孔の中心を含む画素と角膜反射の中心を含む画素とを抽出した後、角膜反射の中心から見た瞳孔の中心の相対位置を算出する。
When the image of the target person is acquired, the line-of-
特徴量算出部103は、算出した眼球の特徴量を処理切替部104に送信する。処理切替部104は、視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)であるか視線検出処理(ステップS2)であるかに応じて、眼球の特徴量の送信先を切り替える。視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)である場合、処理選択部104は、眼球の特徴量を特徴量補正部105に送信する。
The feature
そのため、較正パラメータ決定処理を行っている場合、視線検出装置1は、次に、特徴量補正部105において、画像から抽出した瞳孔の位置に基づいて画像内における瞳孔間距離を算出する(ステップS103)。特徴量補正部105は、取得した1枚の画像における右眼の瞳孔の中心を含む画素の位置を表す座標と、左眼の瞳孔の中心を含む画素の位置を表す座標とに基づいて、式(1)により瞳孔間距離(画素差)を算出する。
Therefore, when the calibration parameter determination process is performed, the line-of-
次に、特徴量補正部105は、算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致するか否かを判定する(ステップS104)。算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて眼球の特徴量を補正し(ステップS105)、補正後の眼球の特徴量を特徴決定部106に送信する。一方、算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致する場合(ステップS104;Yes)、特徴量補正部105は、ステップS105の処理をスキップし、ステップS103で算出した眼球の特徴量を特徴決定部106に送信する。
Next, the feature
ステップS103〜S105の処理を終えると、視線検出装置1は、次に、特徴決定部106において、眼球特徴データベース121を参照して較正に用いる眼球特徴を決定する(ステップS106)。特徴決定部106は、眼球特徴データベース121に登録された眼球の特徴量のうちのステップS101で指定した注視点を注視したときの眼球の特徴量を参照する。そして、特徴決定部106は、特徴量補正部105から受け取った眼球の特徴量と一致する眼球の特徴量含むレコードを抽出し、当該レコードに含まれる眼球の特徴量の組を較正に用いる眼球特徴に決定する。特徴決定部106は、決定した眼球特徴(ある識別子と対応付けられた眼球の特徴量の組)をパラメータ算出部107に送信する。
When the processes of steps S103 to S105 are completed, the line-of-
ステップS106の処理を終えると、視線検出装置1は、次に、パラメータ算出部107において、決定した眼球特徴に基づいて較正パラメータを算出し(ステップS107)、算出した較正パラメータを対象人物の較正パラメータに決定する。パラメータ算出部107は、瞳孔−角膜反射法における既知の算出方法に従って、較正パラメータを算出する。
When the process of step S106 is completed, the line-of-
ステップS107の処理を終えると、パラメータ算出部107は、算出した(決定した)較正パラメータを視線検出部108に送信するとともに、現在の対象人物についての較正パラメータが決定したことを処理切替部104に通知する。これにより、視線検出装置1における較正パラメータ決定処理が終了する。
When the process of step S107 is completed, the
上記の較正パラメータ決定処理(ステップS101〜S107)で較正パラメータを決定した後、視線検出装置1は、視線検出処理(ステップS2)として、図10に示す処理を行う。
After determining the calibration parameters in the calibration parameter determination process (steps S101 to S107), the line-of-
図10は、視線検出処理の内容を説明するフローチャートである。
視線検出処理を開始すると、視線検出装置1は、まず、対象人物の眼球を含む画像を取得する(ステップS201)。ステップS201の処理は、画像取得部101が行う。なお、画像取得部101は、図9のステップS101の処理を終えた後、定期的に赤外線カメラ201で撮像した画像を取得し続けていてもよいし、較正パラメータが決定したことを契機に赤外線カメラ201で撮像した画像の取得を開始してもよい。画像取得部101は、取得した画像を特徴量算出部103に送信する。
FIG. 10 is a flowchart for explaining the contents of the line-of-sight detection process.
When the line-of-sight detection process is started, the line-of-
対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS202)。ステップS202において、特徴量算出部103は、ステップS102の処理と同様、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心及び角膜反射の中心を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。特徴量算出部103は、瞳孔−角膜反射法における既知の抽出方法に従って、画像内における瞳孔の中心を含む画素と角膜反射の中心を含む画素とを抽出した後、角膜反射の中心から見た瞳孔の中心の相対位置を算出する。
When the image of the target person is acquired, the line-of-
特徴量算出部103は、算出した眼球の特徴量を処理切替部104に送信する。処理切替部104は、上記のように、視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)であるか視線検出処理(ステップS2)であるかに応じて、眼球の特徴量の送信先を切り替える。視線検出装置1は、上記のように、較正パラメータを決定すると、パラメータ決定部107から処理切替部104に較正パラメータが決定したことを通知する情報が送信される。処理切替部104は、パラメータ決定部107からの情報を受け取ると、視線検出装置1が行っている処理が視線検出処理に切り替わったと判断する。そして、視線検出装置1が視線検出処理を行っている場合、処理選択部104は、眼球の特徴量を視線算出部108に送信する。
The feature
そのため、視線検出処理を行っている場合、視線検出装置1は、次に、視線算出部108において、算出した眼球の特徴量と、較正パラメータとに基づいて、対象人物の視線を算出する(ステップS203)。視線算出部108は、瞳孔−角膜反射法における既知の視線算出方法に従って、対象人物の視線の方向や位置等を算出する。
Therefore, when the line-of-sight detection process is being performed, the line-of-
対象人物の視線を算出すると、視線算出部108は、算出した視線を視線記憶部122に記憶させる(ステップS204)。
When the gaze of the target person is calculated, the
ステップS201〜S204の処理を終えると、視線検出装置1は、検出処理を続けるか否かを判定する(ステップS205)。例えば、対象人物が入力装置3を操作して検出処理を終了する情報を入力した場合等、検出処理を続けない場合(ステップS205;No)、視線検出装置1は、視線検出処理を終了する。一方、検出処理を続ける場合(ステップS205;Yes)、視線検出装置1は、視線検出処理(ステップS201〜S204)を繰り返す。
When the processes of steps S201 to S204 are finished, the line-of-
図11は、瞳孔の位置及び角膜反射の位置と角膜半径との相関を説明する図である。
本実施形態の視線検出装置1のように瞳孔−角膜反射法により対象人物の視線を検出する場合、赤外線カメラ201で撮像した画像における瞳孔の位置及び角膜反射の位置と、対象人物の角膜半径とには、相関がある。
FIG. 11 is a diagram illustrating the correlation between the position of the pupil and the position of corneal reflection and the corneal radius.
When the gaze of the target person is detected by the pupil-corneal reflection method as in the
例えば、図11に示すように、角膜半径の異なる2個の眼球61,62の眼球の中心Oを重ねると、眼球の中心Oから見た瞳孔の中心Q21,Q22の方向(視線9Sの方向)は、角膜半径R1,R2によらず同一の方向となる。また、眼球の中心Oから見た角膜反射の中心Q11,Q12の方向は、角膜半径R1,R2によらず、赤外線LED 202と眼球の中心Oとを結ぶ線分と、赤外線カメラ201と眼球の中心Oとを結ぶ線分とのなす角θを2等分する角度の方向となる。したがって、赤外線カメラ201から眼球の中心Oまでの距離が同一である場合、角膜反射の中心から瞳孔の中心までの距離は、角膜半径の大きい眼球61における距離が、角膜半径の小さい眼球62における距離よりも長くなる。
For example, as shown in FIG. 11, when the eyeball centers O of two
更に、実空間においては、赤外線カメラ201から眼球の中心Oまでの距離は、眼球の角膜半径R1,R2に比べて非常に長い。そのため、赤外線カメラ201の撮像面における角膜反射の中心から瞳孔の中心までの距離と、角膜半径との相関は、図12のように表すことができる。
Furthermore, in real space, the distance from the
図12は、画像上における瞳孔の位置及び角膜反射の位置と角膜半径との相関を説明する図である。 FIG. 12 is a diagram for explaining the correlation between the position of the pupil and the position of corneal reflection on the image and the corneal radius.
図12における赤外線カメラ201の撮像面203から眼球の中心Oまでの距離Fは、眼球61,62の角膜半径R1,R2に比べて非常に長い。そのため、角膜反射の中心Q11.Q12から撮像面203に向かう赤外線、及び眼球における瞳孔の中心Q21,Q22から撮像面203に向かう赤外線は、角膜半径R1,R2によらず平行であるとみなすことができる。
The distance F from the
ここで、眼球の中心Oから見た瞳孔の中心Q21,Q22の方向(視線9Sの方向)が同一であるとする。この場合、撮像面203における、眼球61の角膜反射の中心Q11から瞳孔の中心Q21までの距離L1は、眼球62の角膜反射の中心Q12から瞳孔の中心Q22までの距離L2よりも長くなる。このように、複数の対象人物が赤外線カメラ201から見て同じ位置で同じ方向を見たとしても、各対象人物の角膜半径(眼球の大きさ)に応じて、画像内における眼球の特徴量は異なる値となる。すなわち、赤外線カメラ201及び赤外線LED 202の設置位置がわかっており、かつ赤外線カメラ201から対象人物の眼球までの距離を所定の距離とした場合、角膜反射の中心と瞳孔の中心との位置関係は、角膜半径にのみ依存する。
Here, it is assumed that the directions of the pupil centers Q21 and Q22 (the direction of the line of
例えば、撮像面203(画像)における角膜反射の中心から瞳孔の中心までの距離がL1である場合、対象人物の眼球の角膜半径は、眼球61の角膜半径R1と同一であるとみなすことができる。そのため、眼球の角膜半径がR1である人物についての眼球の特徴量が眼球特徴データベース121に登録されていれば、1個の注視点を注視したときの眼球の特徴量と、眼球特徴データベース121とに基づいて、対象人物の眼球の特徴量の組を決定することが可能となる。
For example, when the distance from the center of corneal reflection on the imaging surface 203 (image) to the center of the pupil is L1, the cornea radius of the eyeball of the target person can be regarded as the same as the cornea radius R1 of the
すなわち、赤外線カメラ201から対象人物の眼球までの距離を所定の距離としたときの角膜反射の中心と瞳孔の中心との位置関係がわかれば、その位置関係に基づいて、対象人物の角膜半径(眼球の大きさ)を推定することができる。そして、対象人物の角膜半径を推定することができれば、ある方向を見ている対象人物の眼球の画像における角膜反射の中心と瞳孔の中心との位置関係を、他の人物の眼球の画像における位置関係から推定することが可能となる。したがって、眼球特徴データベース121に眼球の大きさ(角膜半径)の異なる複数の人物のそれぞれが複数の注視点を注視したときの眼球の特徴量の組を登録しておくことにより、1つの注視点に基づいて対象人物の眼球の特徴量を決定することが可能となる。よって、本実施形態によれば、対象人物に1つの注視点を注視させるだけで視線の較正パラメータの決定に必要な複数の特徴量を決定することが可能となり、注視点を注視するという対象人物の負担を軽減することが可能となる。
That is, if the positional relationship between the center of corneal reflection and the center of the pupil when the distance from the
しかも、本実施形態に係る較正パラメータ決定処理においては、1個の赤外線カメラ201と1個の赤外線LED 202との組を用いて取得した画像と、眼球特徴パラメータ121とに基づいて、較正パラメータを算出することが可能である。そのため、本実施形態によれば、赤外線カメラ201及び/又は赤外線照明を複数設ける必要は無く、視線検出装置1、赤外線カメラ201、及び赤外線LED 202を含む視線検出システムにおける装置の増大を抑制することが可能である。したがって、視線検出システムの導入コストの増大を抑えることが可能となる。更に、視線検出装置1が行う較正パラメータ決定処理は、取得した1枚の画像における眼球の特徴量と一致する特徴量を含むレコード(眼球特徴)を眼球特徴データベース121から抽出し、抽出した眼球特徴に基づいて較正パラメータを決定するという処理である。そのため、本実施形態によれば、複雑な処理を行うことなく、較正パラメータを決定することが可能であり、視線検出装置1の処理負荷の増大を抑えることが可能となる。
In addition, in the calibration parameter determination process according to the present embodiment, the calibration parameter is determined based on the image acquired using the set of one
なお、赤外線カメラ201で撮像した画像から算出する眼球の特徴量は、角膜反射の中心から見た瞳孔の中心の相対位置に限らず、瞳孔の中心から見た角膜半径の中心の相対位置であってもよい。更に、眼球の特徴量を補正するか否かの判定に用いる値は、瞳孔間距離に限らず、両眼の角膜反射の距離であってもよい。
Note that the feature amount of the eyeball calculated from the image captured by the
また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、図2に示したデータベース121に限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。
In addition, as described above, the information on eyeball features including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the
また、本実施形態に係る視線検出装置1は、上記の車両8を運転する運転者(対象人物9)の視線を検出する視線検出システムに限らず、種々の視線検出システムに適用可能である。
The line-of-
図13は、視線検出装置の別の適用例を示す図である。
本実施形態の視線検出装置1は、図13に示すように、表示装置12を見ている人物9の視線9Sを検出する視線検出システム14にも適用可能である。この種の視線検出システム14では、例えば、表示装置12に表示させる映像や画像、テキストデータ等の表示制御を含む各種の処理を行う情報処理装置13に視線検出装置1を組み込むことが可能である。更に、図13には示していないが、情報処理装置13には、データベース作成装置7を組み込むことも可能である。
FIG. 13 is a diagram illustrating another application example of the visual line detection device.
The line-of-
図13の視線検出システム14で用いる眼球特徴データベース121を作成する処理は、図5の処理と同じでよく、まず、表示装置12の表示面1201に設定した複数の注視点PG1〜PG5のそれぞれを注視している対象人物9の画像を取得する(ステップS11〜S13)。この際、表示装置12の表示面1201には、例えば、注視点PG1のみが表示された画像、注視点PG2のみが表示された画像、注視点PG3のみが表示された画像、注視点PG4のみが表示された画像、注視点PG5のみが表示された画像を順次表示する。
The process for creating the
複数枚の画像を取得した後、データベース作成装置7は、取得した画像のそれぞれで右眼及び左眼の眼球の特徴量を算出するとともに瞳孔間距離を算出して(ステップS14,S15)、眼球特徴データベース121に登録する(ステップS16)。
After acquiring a plurality of images, the
作成した眼球特徴データベース121は、メモリカードや光ディスク等の可搬型記録媒体、或いは伝送ケーブルを介して視線検出装置1(情報処理装置13)に格納する。視線検出システム14においても、眼球特徴データベース121を格納した視線検出処理1は、図8〜図10に示した処理を行う。
The created
図13の視線検出システム14は、例えば、視線入力等に利用可能である。対象人物9が表示装置12の表示面1201に表示された所定のオブジェクトを注視した場合に、視線検出装置1が視線を検出することで、情報処理装置13において、対象人物9が注視しているオブジェクトと対応付けられた処理を実行することが可能となる。
The line-of-
また、図13の視線検出システム14は、例えば、デジタルサイネージ等の各種情報を提供する装置において対象人物9がどの情報に興味を示したか等の調査に利用可能である。
Further, the line-of-
図14は、視線検出システムの変形例を示す図である。
本実施形態の視線検出装置1は、上記の視線検出システムに限らず、例えば、図14の(a)に示すように、眼球特徴データベース121が視線検出装置1とは別の管理サーバ15に格納されている視線検出システム17にも適用可能である。この種の視線検出システム17は、視線検出装置1と管理サーバ15とがインターネット等の通信ネットワーク16で通信可能に接続されている。なお、図14の(a)には示していないが、視線検出装置1には、視線センサ2、入力装置3、スピーカや表示装置12等の出力装置4が接続されている。
FIG. 14 is a diagram illustrating a modification of the line-of-sight detection system.
The line-of-
更に、視線検出装置1を適用した視線検出システム17は、図14の(b)に示すように、複数の車両8(8A,8B)のそれぞれに設置された視線検出装置1が、管理サーバ15に格納された眼球特徴データベース121を共有するシステムであってもよい。この種の視線検出システム17では、例えば、各車両8の視線検出装置1に無線通信部とアンテナ804とを接続し、通信ネットワーク16を介して各視線検出装置1と眼球特徴データベース121との通信を可能にする。また、図14の(b)に示した視線検出システム17では、各視線検出装置1で検出した対象人物の視線情報を管理サーバ15の視線履歴1501に転送することが可能である。このため、眼球特徴データベース121を複数の視線検出装置1で共有することが可能であるとともに、管理装置15により複数の対象人物の視線を一括管理することが可能となる。更に、図示は省略するが、図14の(b)に示した視線検出システム17では、例えば、上記の較正パラメータ作成処理を管理サーバ上で行ってもよい。この場合、視線検出装置1は、例えば、赤外線カメラ201で撮像した画像と、視線検出装置1が設置された車両8の車種情報とを管理サーバ15に送信し、管理サーバ15に較正パラメータを算出させる。その後、視線検出装置1は、管理サーバ15から較正パラメータを取得し、当該較正パラメータに基づいて運転者(対象人物9)の視線を算出する。
Furthermore, the line-of-
また、図6、図13、及び図14に示した視線検出システムは、本実施形態に係る視線検出装置1の適用例に過ぎない。すなわち、視線検出装置1は、これらの視線検出システムに限らず、瞳孔−角膜反射法を利用した種々の視線検出システムに適用可能である。例えば、視線検出装置1は、店舗等で対象人物(顧客)が店舗内に陳列されている商品のうちのどの商品に興味を示しているか等の情報を収集する視線検出システムにも適用可能である。
In addition, the line-of-sight detection system illustrated in FIGS. 6, 13, and 14 is merely an application example of the line-of-
また、図1に示した視線検出装置1の機能的構成及び視線検出装置1が行う処理は、それぞれ、一例に過ぎない。本実施形態に係る視線検出装置1は、例えば、人感センサ等で所定の位置に対象人物9が停留したことを検出したことを契機に、較正パラメータ決定処理を開始するものであってもよい。また、本実施形態に係る視線検出装置1を車両8に設置する場合、例えば、対象人物9(運転者)がエンジンを始動させたことを契機に較正パラメータ決定処理を開始し、対象人物9がエンジンを停止させたことを契機に視線検出処理を終了するようにしてもよい。
Further, the functional configuration of the line-of-
[第2の実施形態]
本実施形態では、視線検出装置1において対象人物の顔の向きを考慮して眼球の特徴量を補正し、較正パラメータを決定する処理方法について説明する。
[Second Embodiment]
In the present embodiment, a processing method for correcting the eyeball feature amount in consideration of the face direction of the target person and determining the calibration parameter in the line-of-
なお、本実施形態に係る視線検出装置1の機能的構成は、図1に示した構成でよい。また、本実施形態に係る視線検出装置1に格納される眼球特徴データベース121は、例えば、図2に示した構成でよい。ただし、本実施形態に係る眼球特徴データベース121を作成する際には、人物が赤外線カメラ201に顔を正対させた状態で注視点を注視している画像を取得し、当該画像から算出した眼球の特徴量及び瞳孔間距離を眼球特徴データベース121に登録する。
Note that the functional configuration of the visual
本実施形態に係る視線検出装置1は、図8に示した較正パラメータ決定処理(ステップS1)、及び視線検出処理(ステップS2)を行う。なお、本実施形態に係る視線検出装置1は、較正パラメータ決定処理として、図15及び図16に示した処理を行う。
The line-of-
図15は、第2の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。図16は、眼球の特徴量を補正する処理の内容を説明するフローチャートである。なお、図15及び図16のフローチャートの処理ブロックのうち、図9のフローチャートと同じ処理を行うブロックについては、図9と同じステップ番号(例えばS101,S102等)を付している。 FIG. 15 is a flowchart for explaining the contents of the calibration parameter determination process according to the second embodiment. FIG. 16 is a flowchart for explaining the content of processing for correcting the feature amount of the eyeball. Of the processing blocks in the flowcharts of FIGS. 15 and 16, blocks that perform the same processes as those in the flowchart of FIG. 9 are given the same step numbers (eg, S101, S102, etc.) as in FIG.
本実施形態の較正パラメータ決定処理において、視線検出装置1は、まず、対象人物が1個の注視点を注視している状態で撮像した、対象人物の眼球を含む画像を取得する(ステップS101)。ステップS101の処理は、画像取得部101と、注視指示部102とが行う。ステップS101において、画像取得部101及び注視指示部102は、それぞれ、第1の実施形態で説明した処理を行う。注視指示部102は、出力装置4を用いて対象人物に1個の注視点を注視させる。一方、画像取得部101は、赤外線カメラ201に1個の注視点を注視している対象人物の眼球を含む画像を撮像させ、撮像した画像を取得する。更に、画像取得部101は、取得した画像を特徴量算出部103に送信する。
In the calibration parameter determination process of the present embodiment, the line-of-
対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS102)。特徴量算出部103は、第1の実施形態で説明したとおり、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心を含む画素及び角膜反射の中心を含む画素を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。
When the image of the target person is acquired, the line-of-
特徴量算出部103は、算出した眼球の特徴量を処理切替部104に送信する。視線検出装置1が行っている処理が較正パラメータ決定処理である場合、処理切替部104は、第1の実施形態で説明したとおり、眼球の特徴量を特徴量補正部105に送信する。
The feature
その後、視線検出装置1は、特徴量補正部105において、眼球の特徴量を補正する処理(ステップS110)を行う。ステップS110において、特徴量補正部105は、まず、右眼の特徴量と左眼の特徴量とに基づいて顔の向きを推定する。そして、推定した顔の向きが赤外線カメラ201と正対していない場合、特徴量補正部105は、右眼及び左眼の特徴量が顔の向きが赤外線カメラ201と正対したときの特徴量となるよう特徴量を補正する。続けて、特徴量補正部105は、第1の実施形態で説明したステップS103〜S105の処理、すなわち画像上の瞳孔間距離と、眼球特徴データベース121の瞳孔間距離とが異なる場合の眼球の特徴量を補正する処理を行う。特徴量補正部105は、補正後の眼球の特徴量を特徴決定部106に送信する。なお、ステップS110において眼球の特徴量を補正しなかった場合、特徴量補正部105は、特徴量算出部103で算出した眼球の特徴量を特徴決定部106に送信する。
Thereafter, the line-of-
ステップS110の処理を終えると、視線検出装置1は、次に、特徴決定部106において、眼球特徴データベース121を参照して較正に用いる眼球特徴を決定する(ステップS106)。特徴決定部106は、眼球特徴データベース121に登録された眼球の特徴量のうちのステップS101で指定した注視点を注視したときの眼球の特徴量を参照する。そして、特徴決定部106は、特徴量補正部105から受け取った眼球の特徴量と同一の特徴量含む特徴量の組を較正に用いる眼球特徴に決定する。特徴決定部106は、決定した眼球特徴(ある識別子と対応付けられた眼球の特徴量の組)をパラメータ算出部107に送信する。
When the processing of step S110 is completed, the line-of-
ステップS106の処理を終えると、視線検出装置1は、パラメータ算出部107において、決定した眼球特徴に基づいて較正パラメータを算出する(ステップS107)。パラメータ算出部107は、瞳孔−角膜反射法における既知の算出方法に従って較正パラメータを算出し、算出した較正パラメータを現在の対象人物の較正パラメータに決定する。ステップS107の処理を終えると、パラメータ算出部107は、決定した較正パラメータを視線算出部108に送信するとともに、現在の対象人物についての較正パラメータが決定したことを処理切替部104に通知する。これにより、視線検出装置1における較正パラメータ決定処理が終了する。
When the process of step S106 is completed, the line-of-
次に、図16を参照して、特徴量補正部105が行うステップS110の眼球の特徴量を補正する処理について説明する。
Next, with reference to FIG. 16, the process of correcting the feature quantity of the eyeball in step S110 performed by the feature
ステップS110の処理において、特徴量補正部105は、まず、眼球の特徴量に基づいて対象人物の顔の向きを推定し(ステップS111)、対象人物の顔が赤外線カメラ201に正対しているか否かを判定する(ステップS112)。ステップS111において、特徴量補正部105は、例えば、右眼の特徴量と左眼の特徴量との大小関係に基づいて、顔の向きを推定する。右眼の特徴量と左眼の特徴量とが略同一である場合、特徴量補正部105は、対象人物の顔が赤外線カメラ201に正対していると推定する。また、右眼の特徴量と左眼の特徴量との差の絶対値が閾値以上である場合、特徴量補正部105は、顔の向きが右方又は左方に傾いていると推定する。
In the process of step S110, the feature
ステップS111において顔の向きを推定した結果、顔が赤外線カメラ201に正対していない場合(ステップS112;No)、特徴量補正部105は、次に、顔の向きに基づいて右眼又は左眼の眼球の特徴量を補正する(ステップS113)。ステップS103において、特徴量補正部105は、ステップS111で推定した顔の向きに基づいて、右眼の特徴量と左眼の特徴量とが略同一になるよう、右眼又は左眼の、角膜反射の中心位置と瞳孔の中心位置とを補正する。ステップS113の後、特徴量補正部105は、補正後の右眼の瞳孔の中心位置及び左眼の瞳孔の中心位置に基づいて、瞳孔間距離を算出する(ステップS114)。
As a result of estimating the orientation of the face in step S111, if the face is not directly facing the infrared camera 201 (step S112; No), the feature
一方、顔が赤外線カメラ201に正対している場合(ステップS112;Yes)、特徴量補正部105は、ステップS113の処理をスキップしてステップS114の処理を行う。ステップS113の処理をスキップした場合、特徴量補正部105は、顔の向きの推定に用いた右眼の瞳孔の中心位置及び左眼の瞳孔の中心位置に基づいて、瞳孔間距離を算出する。
On the other hand, when the face is directly facing the infrared camera 201 (step S112; Yes), the feature
瞳孔間距離を算出すると、特徴量補正部105は、次に、算出した瞳孔間距離が眼球特徴データベース121の瞳孔間距離と一致するか否かを判定する(ステップS104)。瞳孔間距離が一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて、眼球の特徴量を補正する(ステップS105)。ステップS105において特徴量補正部105が行う処理は、第1の実施形態で説明したとおりである。ステップS105の後、特徴量補正部105は、補正後の眼球の特徴量を特徴決定部106に送信して眼球の特徴量を補正する処理を終了する。
After calculating the interpupillary distance, the feature
一方、瞳孔間距離が一致した場合(ステップS104;Yes)、特徴量補正部105は、ステップS105をスキップし、眼球の特徴量を特徴決定部106に送信して眼球の特徴量を補正する処理を終了する。瞳孔間距離が一致した場合、特徴量補正部105は、特徴量抽出部103において抽出した眼球の特徴量、又はステップS113で補正した眼球の特徴量を特徴決定部106に出力する。
On the other hand, when the interpupillary distances match (step S104; Yes), the feature
図17は、顔の向きと眼球の特徴量との関係を説明する図である。
図17の(a)には、顔の向きV1が赤外線カメラ201の方向であり(すなわち顔が赤外線カメラ201と正対しており)、かつ視線の方向V2が赤外線カメラ201の方向である場合の、眼球の特徴量と、撮像面203における瞳孔間距離とを示している。この場合、赤外線カメラ201(撮像面203)から見た右眼における角膜反射601Rの中心から瞳孔602Rの中心までの距離PLと、左眼における角膜反射601Lの中心から瞳孔602Lまでの距離PRとは、略同一の値(PR≒PL)となる。
FIG. 17 is a diagram for explaining the relationship between the orientation of the face and the feature amount of the eyeball.
FIG. 17A shows a case where the face direction V1 is the direction of the infrared camera 201 (that is, the face is facing the infrared camera 201) and the line-of-sight direction V2 is the direction of the
図17の(b)には、顔の向きV1が赤外線カメラ201の方向であり、かつ視線の方向V2が赤外線カメラ201の方向である場合の、眼球の特徴量と、撮像面における瞳孔間距離とを示している。そのため、図17の(b)の場合も、右眼における角膜反射から瞳孔までの距離PLと、左眼における角膜反射から瞳孔までの距離PRとは、略同一の値(PR≒PL)となる。
In FIG. 17B, the feature amount of the eyeball and the inter-pupil distance on the imaging surface when the face direction V1 is the direction of the
このように、顔が赤外線カメラ201と正対している場合、右眼における角膜反射601Rから瞳孔602Rまでの距離PRと、左眼における角膜反射601Lから瞳孔602Lまで距離PLとは、略同一の値(PR≒PL)となる。
Thus, when the face is directly facing the
ただし、図17の(b)では、赤外線カメラ201(撮像面203)から眼球(顔)までの距離が、図17の(a)における赤外線カメラ201から眼球までの距離よりも長くなっている。そのため、図17の(a)及び(b)において実際の瞳孔間距離PDが同一であっても、(b)の場合の撮像面203における瞳孔間距離D2は、(a)の場合の撮像面203における瞳孔間距離D1よりも小さくなる(D1>D2)。
However, in FIG. 17B, the distance from the infrared camera 201 (imaging surface 203) to the eyeball (face) is longer than the distance from the
これに対し、図17の(c)には、顔の向きV1が赤外線カメラ201とは異なる方向を向いており、かつ視線の方向V2が赤外線カメラ201の方向である場合の、眼球の特徴量と、撮像面203における瞳孔間距離とを示している。図17の(c)では、赤外線カメラ201から右眼までの距離が赤外線カメラ201から左眼までの距離よりも長くなっている。そのため、右眼における角膜反射601Rの中心から瞳孔602Rの中心までの距離PRは、左眼における角膜反射601Lの中心から瞳孔602Lの中心までの距離PLよりも短くなる(PR<PL)。更に、図17の(c)においては、対象人物の顔の向きV1が赤外線カメラ201とは異なる方向を向いている。そのため、赤外線カメラ201(撮像面203)から見た瞳孔間距離D3は、実際の瞳孔間距離PDと、赤外線カメラ201(撮像面203)から眼球までの距離とに基づいて算出される瞳孔間距離よりも短くなる。一方、本実施形態で用いる眼球特徴データベース121における眼球の特徴量及び瞳孔間距離は、顔が赤外線カメラ201に正対している状態で撮像した画像に基づいて算出された値である。したがって、顔が赤外線カメラ201に正対していない場合、画像から算出した眼球の特徴量と、眼球特徴データベース121の眼球の特徴量とを正しく比較するには、算出した特徴量を顔が赤外線カメラ201に正対した状態の特徴量に補正する必要がある。
On the other hand, in FIG. 17C, the feature amount of the eyeball when the face direction V1 is in a different direction from the
図18は、顔がカメラと正対していない場合の眼球の特徴量の補正方法を説明する図である。 FIG. 18 is a diagram for explaining a method for correcting the feature amount of the eyeball when the face is not directly facing the camera.
図18には、顔が赤外線カメラ201と正対していない場合の例として、撮像面203から右眼までの距離が、撮像面203から左眼までの距離よりも長い場合の眼球の特徴量を示している。この場合、撮像面203における右眼の角膜反射601Rの中心KRxから瞳孔602Rの中心PRxまでの距離は、撮像面203における左眼の角膜反射601Lの中心KLxから瞳孔602Lの中心PLxまでの距離Lよりも短くなる。このため、特徴量補正部105は、撮像面203における右眼の角膜反射601Rの中心から瞳孔602Rの中心までの距離が左眼の距離Lと一致するよう、角膜反射601Rの位置及び瞳孔602Rの位置を補正する(図16のステップS113)。すなわち、ステップS113において、特徴量補正部105は、下記式(2)を満たす撮像面203上の点KRx’,PRx’を算出する。
In FIG. 18, as an example of the case where the face is not directly facing the
KRx’−PRx’=KLx−PLx (2) KRx'-PRx '= KLx-PLx (2)
式(2)において、点KRx’及び点PRx’は、それぞれ、対象人物が左眼の位置を基準として顔を赤外線カメラ201と正対させた場合の、撮像面203上における仮想的な右眼の角膜反射601R’の中心及び瞳孔602R’の中心である。
In the equation (2), the point KRx ′ and the point PRx ′ are the virtual right eye on the
右眼の角膜反射601Rの位置及び瞳孔602Rの位置を補正する場合、図18に示すように、右眼の角膜反射601Rの中心Pxから瞳孔602Rの中心Kxまでの距離が左眼の距離Lと一致する仮想平面205を設定する。ここで、赤外線カメラ201のレンズ204から撮像面203までの距離を距離h、レンズ204から仮想平面205までの距離を距離Hとすると、2つの距離h,Hの比h:Hは、下記数(3−1)で表される。
When correcting the position of the
h:H=(KRx−PRx):(KLx−PLx) (3−1) h: H = (KRx-PRx): (KLx-PLx) (3-1)
したがって、レンズ204から仮想平面205までの距離Hは、下記数(3−2)により算出される。
Therefore, the distance H from the
H=d×{(KLx−PLx)/(KRx−PRx)} (3−2) H = d × {(KLx−PLx) / (KRx−PRx)} (3-2)
一方、2つの距離h,Hのh;Hは、撮像面203の中心Oxと、撮像面203における補正前の右眼の角膜反射601Rの位置KRxと、撮像面203における仮想的な右眼の角膜反射601R’の位置KRx’とを用いると、下記式(4−1)で表される。
On the other hand, h of two distances h and H; H is the center Ox of the
h:H=(KRx−Ox):(KRx’−Ox) (4−1) h: H = (KRx-Ox): (KRx'-Ox) (4-1)
したがって、レンズ204から仮想平面205までの距離Hがわかれば、下記数(4−2)に基づいて、撮像面203における仮想的な右眼の角膜反射601R’の位置KRx’を算出することが可能となる。
Therefore, if the distance H from the
(KRx’−Ox)=(KRx−Ox)×(H/h) (4−2) (KRx′−Ox) = (KRx−Ox) × (H / h) (4-2)
また、2つの距離h,Hのh;Hは、撮像面203の中心Oxと、撮像面203における補正前の右眼の瞳孔602Rの位置PRxと、撮像面203における仮想的な右眼の瞳孔602R’の位置PRx’とを用いると、下記式(5−1)で表される。
The two distances h, H of h; H are the center Ox of the
h:H=(PRx−Ox):(PRx’−Ox) (5−1) h: H = (PRx−Ox): (PRx′−Ox) (5-1)
したがって、レンズ204から仮想平面205までの距離Hがわかれば、下記数(5−2)に基づいて、撮像面203における仮想的な右眼の瞳孔602R’の位置PRx’を算出することが可能となる。
Therefore, if the distance H from the
(PRx’−Ox)=(PRx−Ox)×(H/h) (5−2) (PRx′−Ox) = (PRx−Ox) × (H / h) (5-2)
式(3−2)、式(4−2)、及び式(5−2)に基づいて右眼の特徴量を補正した場合、特徴量補正部105は、補正後の眼球の特徴量、すなわち撮像面203における点PLxと点PRx’との位置関係に基づいて瞳孔間距離を算出する(ステップS114)。そして、算出した瞳孔間距離と眼球特徴テーブルの瞳孔間距離とが一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて眼球の特徴量を再度補正する(ステップS105)。
When the feature amount of the right eye is corrected based on Expression (3-2), Expression (4-2), and Expression (5-2), the feature
上記の眼球の特徴量を補正する処理を行うことで、画像から算出した眼球の特徴量は、顔の向き及び瞳孔間距離が眼球特徴テーブル121の作成時における人物の顔の向き及び瞳孔間距離と一致した特徴量となる。そのため、本実施形態によれば、顔の向きに応じた眼球の特徴量(角膜反射と瞳孔との距離)及び瞳孔間距離の変化により誤った眼球特徴を抽出することを抑制することが可能となり、視線検出の精度をより高くすることが可能となる。 By performing the process of correcting the feature amount of the eyeball, the feature amount of the eyeball calculated from the image is the face orientation and the interpupillary distance. When the eyeball feature table 121 is created, the face orientation of the person and the interpupillary distance The feature amount is consistent with. Therefore, according to the present embodiment, it is possible to suppress extraction of erroneous eyeball features due to changes in the eyeball feature amount (the distance between the corneal reflection and the pupil) and the interpupillary distance according to the face orientation. Thus, it is possible to further increase the accuracy of line-of-sight detection.
なお、図15及び図16は、本実施形態の視線検出装置1が行う較正パラメータ決定処理の一例に過ぎない。本実施形態の視線検出装置1が行う較正パラメータ決定処理は、適宜変更可能であり、図15及び図16に示した手順に限らず、一部の処理の内容を変更したものであってもよい。
15 and 16 are only examples of calibration parameter determination processing performed by the line-of-
また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、眼球特徴データベースに限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。 In addition, as described above, information on eyeball features including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the eyeball feature database, and each can be identified. It may be registered (stored) in the storage unit in another manner.
また、本実施形態の視線検出装置1は、第1の実施形態の視線検出装置1と同様、画像から対象人物の視線を検出する種々の視線検出システムに適用可能である。
The line-of-
[第3の実施形態]
図19は、第3の実施形態に係る視線検出装置の機能的構成を示す図である。
[Third Embodiment]
FIG. 19 is a diagram illustrating a functional configuration of the visual line detection device according to the third embodiment.
図19に示すように、本実施形態に係る視線検出装置1は、画像取得部101と、注視指示部102と、特徴量算出部103と、処理切替部104と、特徴量補正部105と、特徴決定部106と、パラメータ算出部107と、視線算出部108と、を備える。また、視線検出装置1は、眼球特徴データベース123と、視線記憶部122と、を備える。更に、視線検出装置1は、虹彩半径算出部109を備える。
As illustrated in FIG. 19, the line-of-
本実施形態の視線検出装置1における画像取得部101、注視指示部102、特徴量算出部103、処理切替部104、パラメータ決定部107、及び視線算出部108のそれぞれの機能は、第1の実施形態で説明したとおりである。
The functions of the
虹彩半径算出部109は、画像取得部101が赤外線カメラ201から取得した画像における眼球の虹彩を抽出し、虹彩半径を抽出する。
The iris radius calculation unit 109 extracts the iris of the eyeball in the image acquired by the
特徴量補正部105は、画像取得部101が取得した画像における瞳孔間距離と、眼球特徴データベース123に登録された瞳孔間距離とに基づいて、眼球の特徴量及び虹彩半径を補正する。
The feature
特徴決定部106は、取得した画像における眼球の特徴量及び虹彩半径(又は補正後の眼球の特徴量及び虹彩半径)と、眼球特徴データベース123とに基づいて、対象人物の眼球特徴(眼球の特徴量の組)を決定する。
Based on the eyeball feature amount and iris radius (or the corrected eyeball feature amount and iris radius) in the acquired image and the
図20は、第3の実施形態に係る眼球特徴データベースの例を示す図である。図21は、眼球の特徴量及び虹彩半径を説明する図である。 FIG. 20 is a diagram illustrating an example of an eyeball feature database according to the third embodiment. FIG. 21 is a diagram for explaining the feature amount and iris radius of the eyeball.
図20に示すように、本実施形態に係る眼球特徴データベース123は、識別子(ID)と、虹彩半径(IR)と、注視点を注視しているときの眼球の特徴量(PG1〜PG5)と、瞳孔間距離(PD)とを含む。このうち識別子、眼球の特徴量、及び瞳孔間距離は、それぞれ、第1の実施形態で説明した眼球特徴データベース121における値と同じ値である。
As shown in FIG. 20, the
虹彩半径(IR)は、眼球特徴データベース123を作成する際に画像から抽出した、各対象人物の虹彩の画像内における半径である。
The iris radius (IR) is a radius in the iris image of each target person extracted from the image when the
図20の眼球特徴データベース123は、例えば、図4のデータベース作成装置7により作成することが可能である。データベース作成装置7により眼球特徴データベース123を作成する場合、例えば、特徴量算出部703において、眼球の特徴量(角膜反射の中心から見た瞳孔の中心の相対位置)を算出するとともに、虹彩半径を算出する。そして、登録部705において、眼球の特徴量と、虹彩半径と、距離算出部704で算出した瞳孔間距離との組に1個の識別子を付与し、1個のレコードとして眼球特徴データベース123に登録する。
The
特徴量算出部703は、例えば、図21に示すように、画像5から瞳孔602を囲む環状領域603を虹彩として抽出し、瞳孔602の中心Q2から環状領域603の外周までの平均距離(画素数)を虹彩半径IRとする。また、特徴量算出部703において抽出する眼球の特徴量は、第1の実施形態で説明したとおりであり、画像5における角膜反射601の中心Q1を含む画素から見た瞳孔602の中心Q2を含む画素の相対位置を表す値とする。
For example, as shown in FIG. 21, the feature
本実施形態の視線検出装置1は、動作を開始すると、図8に示した較正パラメータ決定処理(ステップS1)、及び視線検出処理(ステップS2)を行う。本実施形態の視線検出装置1は、較正パラメータ決定処理として、図22に示す処理を行う。
When the line-of-
図22は、第3の実施形態に係る較正パラメータ決定処理の内容を説明するフローチャートである。なお、図22のフローチャートの処理ブロックのうち、図9のフローチャートと同じ処理を行うブロックについては、図9と同じステップ番号(例えばS101,S102等)を付している。 FIG. 22 is a flowchart for explaining the contents of the calibration parameter determination process according to the third embodiment. Of the processing blocks in the flowchart of FIG. 22, blocks that perform the same processing as in the flowchart of FIG. 9 are assigned the same step numbers (eg, S101, S102, etc.) as in FIG.
本実施形態の較正パラメータ決定処理において、視線検出装置1は、まず、対象人物が1個の注視点を注視している状態で撮像した、対象人物の眼球を含む画像を取得する(ステップS101)。ステップS101の処理は、画像取得部101と、注視指示部102とが行う。ステップS101において、画像取得部101及び注視指示部102は、それぞれ、第1の実施形態で説明した処理を行う。注視指示部102は、出力装置4を用いて対象人物に1個の注視点を注視させる。一方、画像取得部101は、赤外線カメラ201に1個の注視点を注視している対象人物の眼球を含む画像を撮像させ、撮像した画像を取得する。更に、画像取得部101は、取得した画像を特徴量算出部103に送信する。
In the calibration parameter determination process of the present embodiment, the line-of-
対象人物の画像を取得すると、視線検出装置1は、次に、特徴量算出部103において、取得した画像から瞳孔及び角膜反射を抽出して眼球の特徴量を算出する(ステップS102)。特徴量算出部103は、第1の実施形態で説明したとおり、画像内の右眼及び左眼のそれぞれにおける瞳孔の中心を含む画素及び角膜反射の中心を含む画素を抽出し、角膜反射の中心から見た瞳孔の中心の相対位置を眼球の特徴量として算出する。
When the image of the target person is acquired, the line-of-
特徴量算出部103は、算出した眼球の特徴量及び取得した画像を処理切替部104に送信する。視線検出装置1が行っている処理が較正パラメータ決定処理(ステップS1)である場合、処理選択部104は、眼球の特徴量及び画像を虹彩半径算出部110に送信する。
The feature
次に、視線検出装置1は、虹彩半径算出部110において、画像から虹彩を抽出して虹彩半径を算出する(ステップS120)。虹彩半径算出部110は、例えば、画像における右眼及び左眼が写っている領域のそれぞれから、瞳孔を囲む環状領域を虹彩として抽出する。続けて、虹彩半径算出部110は、瞳孔の中心と、抽出した環状領域の外周との距離の平均値を算出し、これを虹彩半径とする。虹彩半径算出部110は、算出した虹彩半径と、特徴量算出部103で算出した眼球の特徴量とを、特徴量補正部105に送信する。
Next, the line-of-
ステップS120の後、視線検出装置1は、特徴量補正部105において、画像から抽出した瞳孔の位置に基づいて瞳孔間距離を算出する(ステップS103)。特徴量補正部105は、特徴量算出部103で抽出した、画像内における右眼の瞳孔の中心を含む画素の位置と、左眼の瞳孔の中心を含む画素の位置とに基づいて、瞳孔間距離(画素差)を算出する。
After step S120, the line-of-
次に、特徴量補正部105は、算出した瞳孔間距離が眼球特徴データベース123の瞳孔間距離と一致するか否かを判定する(ステップS104)。算出した瞳孔間距離が眼球特徴データベース123の瞳孔間距離と一致しない場合(ステップS104;No)、特徴量補正部105は、瞳孔間距離の比に基づいて眼球の特徴量及び虹彩半径を補正する(ステップS121)。眼球の特徴量及び虹彩半径を補正した場合、特徴量補正部105は、補正後の眼球の特徴量及び虹彩半径を特徴決定部106に送信する。一方、算出した瞳孔間距離が眼球特徴データベースの瞳孔間距離と一致する場合(ステップS104;Yes)、特徴量補正部105は、ステップS103で算出した眼球の特徴量と、ステップS120で算出した虹彩半径とを特徴決定部106に送信する。
Next, the feature
眼球の特徴量及び虹彩半径が特徴決定部106に送信されると、視線検出装置1は、特徴決定部106において、眼球特徴データベース123を参照して較正に用いる眼球特徴を決定する(ステップS106)。特徴決定部106は、眼球特徴データベース123に登録された眼球の特徴量のうちのステップS101で指定した注視点を注視したときの眼球の特徴量と、虹彩半径(IR)とを参照する。そして、特徴決定部106は、眼球特徴データベース123における眼球の特徴量と虹彩半径との組み合わせが、特徴量補正部105から受け取った眼球の特徴量及び虹彩半径と同一又は最も近いレコードに含まれる特徴量の組を、較正に用いる眼球特徴に決定する。特徴決定部106は、決定した眼球特徴(ある識別子と対応付けられた眼球の特徴量の組)をパラメータ算出部107に送信する。
When the feature amount and iris radius of the eyeball are transmitted to the
ステップS106の処理を終えると、視線検出装置1は、パラメータ算出部107において、決定した眼球特徴に基づいて較正パラメータを算出する(ステップS107)。パラメータ算出部107は、瞳孔−角膜反射法における既知の算出方法に従って較正パラメータを算出し、算出した較正パラメータを現在の対象人物の較正パラメータに決定する。ステップS107の処理を終えると、パラメータ算出部107は、決定した較正パラメータを視線算出部108に送信するとともに、現在の対象人物についての較正パラメータが決定したことを処理切替部104に通知する。これにより、視線検出装置1における較正パラメータ決定処理が終了する。
When the process of step S106 is completed, the line-of-
図22の較正パラメータ決定処理により較正パラメータを決定した後、本実施形態の視線検出装置1は、視線検出処理として、例えば、図10に示す処理を行う。
After the calibration parameters are determined by the calibration parameter determination process of FIG. 22, the line-of-
図23は、虹彩半径と眼球形状との相関を説明する図である。
眼球のモデルにおける主なパラメータとしては、例えば、図23に示すように、角膜を形成する球64の半径(角膜半径r)の他に、目そのものの回転を司る眼球65の半径Rと、角膜を形成する球64の中心と眼球65の中心との距離Dが考えられる。
FIG. 23 is a diagram for explaining the correlation between the iris radius and the eyeball shape.
As main parameters in the eyeball model, for example, as shown in FIG. 23, in addition to the radius of the sphere 64 forming the cornea (corneal radius r), the radius R of the
また、眼球のモデルにおいて角膜半径rが既知の場合には、角膜を形成する球64の中心と眼球65の中心との距離Dと、虹彩径I(虹彩半径IR)とに相関がある。
When the cornea radius r is known in the eyeball model, there is a correlation between the distance D between the center of the sphere 64 forming the cornea and the center of the
例えば、図23の(a)に示した眼球モデルにおける距離Dは、図23の(b)に示した眼球モデルにおける距離Dよりも長い。このとき、図23の(a)の眼球モデルにおける虹彩径Iは、図23の(b)の眼球モデルにおける虹彩径Iよりも大きくなる。このように、角膜半径rが同一であっても虹彩径I(虹彩半径IR)が異なる場合、角膜と眼球65の中心との距離が異なるため、角膜反射の中心と瞳孔の中心との距離に差異が生じる(例えば、図11及び図12を参照)。よって、本実施形態のように、角膜反射の中心と瞳孔の中心との位置関係に加え、虹彩半径も利用することで、眼球特徴をより細かく分類することが可能となり、対象人物にとって最適な眼球特徴を選出することが可能となる。
For example, the distance D in the eyeball model shown in FIG. 23A is longer than the distance D in the eyeball model shown in FIG. At this time, the iris diameter I in the eyeball model in FIG. 23A is larger than the iris diameter I in the eyeball model in FIG. In this way, even when the corneal radius r is the same, when the iris diameter I (iris radius IR) is different, the distance between the cornea and the center of the
図24は、第3の実施形態に係る眼球特徴の決定方法の例を説明する図である。
図24には、第3の実施形態に係る眼球特徴データベース123を簡略化して示している。また、図24の眼球特徴データベース123には、眼球の特徴量(PG1〜PG5)及び虹彩半径(IR)とともに、角膜半径(CR)を示している。
FIG. 24 is a diagram illustrating an example of an eyeball feature determination method according to the third embodiment.
FIG. 24 shows a simplified
眼球のモデルでは、上記のように、角膜半径が一定であっても、角膜を形成する球の中心と眼球の中心との距離Dに応じて虹彩径I(虹彩半径)が変化する。そして、角膜半径が同じで虹彩半径が異なる複数の人物における眼球の特徴量を抽出すると、眼球の特徴量は、虹彩半径に応じて異なる値となる。 In the eyeball model, as described above, even when the corneal radius is constant, the iris diameter I (iris radius) changes according to the distance D between the center of the sphere forming the cornea and the center of the eyeball. Then, when eyeball feature amounts are extracted from a plurality of persons having the same corneal radius and different iris radii, the eyeball feature amounts have different values depending on the iris radius.
図24に示した眼球特徴データベース123には、角膜半径がRmである人物における眼球の特徴量として、虹彩半径が異なる3通りの眼球の特徴量が登録されている。このとき、虹彩半径がIRm1の人物における眼球の特徴量と、虹彩半径がIRm2の人物における眼球の特徴量と、虹彩半径がIRm3の人物における眼球の特徴量とは、それぞれ、わずかに異なる。例えば、虹彩半径がIRm1の人物が注視点PG3を注視したときの特徴量m13と、虹彩半径がIRm2の人物が注視点PG3を注視したときの特徴量m23とは、わずかに異なる。また、虹彩半径がIRm2の人物が注視点PG3を注視したときの特徴量m23と、虹彩半径がIRm3の人物が注視点PG3を注視したときの特徴量m33とは、わずかに異なる。更に、虹彩半径がIRm1の人物が注視点PG3を注視したときの特徴量m13と、虹彩半径がIRm3の人物が注視点PG3を注視したときの特徴量m33とは、わずかに異なる。
In the
また、上記のように、角膜半径が異なる複数の人物における眼球の特徴量は、それぞれ異なる。例えば、角膜半径が4である人物が注視点PG3を注視したときの特徴量n3と、角膜半径がRm(≠4)である人物が注視点PG3を注視したときの特徴量m13,m23,m33とは、異なる値となる。 In addition, as described above, the eyeball feature amounts of a plurality of persons having different corneal radii are different from each other. For example, a feature amount n3 when a person with a corneal radius of 4 gazes at the gazing point PG3, and a feature amount m13, m23, m33 when a person with a corneal radius of Rm (≠ 4) gazes at the gazing point PG3. Is a different value.
したがって、角膜半径の異なる複数の人物から抽出した眼球の特徴量のみに基づいて対象人物の眼球特徴を特定する場合、角膜半径が同一又は略同一であっても、虹彩半径の違いから眼球の特徴量に違いが生じ、適切な眼球特徴を選出できない可能性がある。 Therefore, when the eyeball feature of the target person is specified based only on the feature amount of the eyeball extracted from a plurality of people with different corneal radii, even if the corneal radius is the same or substantially the same, the feature of the eyeball is different from the difference in the iris radius. There is a possibility that the amount of the eyeball is different and the proper eyeball feature cannot be selected.
これに対し、本実施形態で用いる眼球特徴データベース123には、角膜半径が同一であり虹彩半径が異なる複数の眼球特徴が登録されている。そのため、眼球特徴を決定する処理では、例えば、角膜半径がRmである対象人物に対する眼球特徴として、まず、3通りの眼球特徴が抽出される。この段階では、3通りの眼球特徴の全てが、対象人物の眼球特徴と類似しており、対象人物の眼球特徴に決定し得る。しかしながら、本実施形態においては、3通りの眼球特徴の中から、虹彩半径が同一又は最も近い眼球特徴を対象人物の眼球特徴に決定する。これにより、角膜半径及び虹彩半径が対象人物に最も近い眼球特徴を対象人物の眼球特徴を決定することが可能となり、より適切な眼球特徴に基づいて較正パラメータを決定することが可能となる。
On the other hand, in the
なお、図22は、本実施形態の視線検出装置1が行う較正パラメータ決定処理の一例に過ぎない。本実施形態の視線検出装置1が行う較正パラメータ決定処理は、例えば、第2の実施形態で説明したように、顔の向きに応じて眼球の特徴量や虹彩径を補正する処理を含むものであってもよい。
Note that FIG. 22 is only an example of calibration parameter determination processing performed by the line-of-
また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、データベースに限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。 In addition, as described above, the eyeball feature information including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the database as described above. It may be registered (stored) in the storage unit in a manner.
また、本実施形態の視線検出装置1は、第1の実施形態の視線検出装置1と同様、画像から対象人物の視線を検出する種々の視線検出システムに適用可能である。
The line-of-
[第4の実施形態]
本実施形態では、眼球特徴データベース121,123を参照して対象人物の眼球特徴を決定する処理において、眼球特徴を対象人物の眼球の特徴量により近づける例を説明する。なお、本実施形態に係る視線検出装置1の機能的構成は、例えば、図1に示した較正でよい。また、視線検出装置1に格納される眼球特徴データベースは、例えば、図2の眼球特徴データベース121でもよし、図20の眼球特徴データベース123でもよい。
[Fourth Embodiment]
In the present embodiment, an example will be described in which the eyeball feature is made closer to the feature amount of the eyeball of the target person in the process of determining the eyeball feature of the target person with reference to the
本実施形態に係る視線検出装置1は、図8に示した較正パラメータ決定処理(ステップS1)、及び視線検出処理(ステップS2)を行う。その際、視線検出装置1は、較正パラメータ決定処理として、図9又は図15に示した処理を行う。なお、視線検出装置1は、較正パラメータ決定処理におけるステップS106の処理、すなわち眼球特徴データベースを参照して眼球特徴を決定する処理として、図25に示す処理を行う。
The line-of-
図25は、第4の実施形態に係る較正パラメータ決定処理における眼球特徴を決定する処理の内容を説明するフローチャートである。 FIG. 25 is a flowchart for explaining the contents of processing for determining eyeball characteristics in the calibration parameter determination processing according to the fourth embodiment.
眼球特徴を決定する処理(ステップS106)は、視線検出装置1の特徴決定部106が行う。特徴決定部106は、まず、眼球特徴データベース121を参照し(ステップS161)、算出した特徴量又は補正した特徴量と一致するレコードがあるか否かを判定する(ステップS162)。ここで、レコードは、1個の識別子と対応付けられた複数個の眼球の特徴量の組である。
The process of determining the eyeball feature (step S106) is performed by the
算出した特徴量又は補正した特徴量と一致するレコードがある場合(ステップS162;Yes)、特徴決定部106は、一致したレコードを対象人物の眼球特徴に決定する(ステップS163)。この場合、特徴決定部106は、ステップS163で決定した眼球特徴をパラメータ決定部107に送信し、眼球特徴を決定する処理を終了する。
When there is a record that matches the calculated feature value or the corrected feature value (step S162; Yes), the
一方、算出した特徴量又は補正した特徴量と一致するレコードがない場合(ステップS162;No)、特徴決定部106は、次に、算出した特徴量又は補正した特徴量と近い特徴量を持つ複数のレコードを抽出する(ステップS164)。
On the other hand, when there is no record that matches the calculated feature value or the corrected feature value (step S162; No), the
次に、特徴決定部106は、算出した特徴量又は補正した特徴量と、抽出したレコードの特徴量とに基づいて、各注視点の眼球の特徴量を算出する(ステップS165)。ステップS165において、特徴決定部106は、算出した特徴量又は補正した特徴量と、抽出した複数のレコードの特徴量のそれぞれとの距離の比に基づいて、各注視点の眼球の特徴量を算出する。
Next, the
次に、特徴決定部106は、ステップS165で算出した各注視点の眼球の特徴量の組を対象人物の眼球特徴に決定する(ステップS166)。ステップS166の後、特徴決定部106は、ステップS163で決定した眼球特徴をパラメータ算出部107に送信し、眼球特徴を決定する処理を終了する。
Next, the
図26は、眼球特徴データベースから抽出される複数のレコードの例を示す図である。なお、図26には、眼球特徴データベース121に登録された右眼のレコードの例を示している。
FIG. 26 is a diagram illustrating an example of a plurality of records extracted from the eyeball feature database. FIG. 26 shows an example of a right eye record registered in the
特徴決定部106が行う上記の処理の例として、対象人物が注視点PG3を注視している画像から算出した右眼の特徴量(0,−1.9)と、図26の眼球特徴データベース121とに基づいて眼球特徴を決定する場合を挙げる。図26の眼球特徴データベース121には、注視点PG3の特徴量が特徴量(0,−1.9)であるレコードが登録されていない。そのため、特徴決定部106は、算出した特徴量と一致するレコードがないと判定し(ステップS162;No)、次に、算出した特徴量(0.−1.9)と近い特徴量を持つ複数のレコードを抽出する(ステップS164)。ステップS164において、特徴決定部106は、算出した特徴量と近い特徴量を持つレコードとして、識別子がR−jのレコードと、識別子がR−kのレコードとの2つのレコードを抽出する。
As an example of the above processing performed by the
次に、特徴量決定部106は、算出した特徴量又は補正した特徴量と、抽出したレコードの特徴量とに基づいて、各注視点の眼球の特徴量を算出する(ステップS165)。
Next, the feature
図27は、特徴量の算出方法を説明する図である。
ステップS165において特徴量を算出する際には、例えば、図27に示すように、特徴量を表現する仮想平面に、算出した特徴量P(0,−1.9)と、抽出したレコードの特徴量J(0,−1.8),K(0.2,−2.2)とをプロットする。
FIG. 27 is a diagram illustrating a feature amount calculation method.
When calculating the feature amount in step S165, for example, as shown in FIG. 27, the calculated feature amount P (0, -1.9) and the feature of the extracted record are displayed on the virtual plane expressing the feature amount. The quantities J (0, -1.8) and K (0.2, -2.2) are plotted.
次に、特徴量Pから、抽出したレコードの特徴量Jと特徴量Kとを結ぶ線分JKに垂線を下ろし、線分JKと垂線との交点Nで線分JKを線分JNと線分JKとを分割する。その後、分割した線分JNと線分NKとの比と、識別子がR−jのレコードと、識別子がR−kのレコードとに基づいて、対象人物が各注視点を注視したときの眼球の特徴量を算出する。 Next, a perpendicular line is drawn from the feature quantity P to the line segment JK connecting the feature quantity J and the feature quantity K of the extracted record, and the line segment JK and the line segment JN at the intersection N of the line segment JK and the perpendicular line are drawn. Divide JK. Then, based on the ratio of the divided line segment JN and line segment NK, the record with the identifier Rj, and the record with the identifier Rk, the eyeball when the target person gazes at each gaze point The feature amount is calculated.
線分JPと線分JNとのなす角をθとした場合、下記式(6−1)及び式(6−2)が成り立つ。 When the angle formed by the line segment JP and the line segment JN is θ, the following expressions (6-1) and (6-2) hold.
式(6−1)において、上部に矢印を付したJNは、特徴量Jから交点Nに向かうベクトルを意味する。式(6−1)及び式(6−2)において、上部に矢印を付したJPは、特徴量Jから特徴量Pに向かうベクトルを意味する。式(6−2)において、上部に矢印を付したJKは、特徴量Jから特徴量Kに向かうベクトルを意味する。 In Expression (6-1), JN with an arrow at the top means a vector from the feature amount J toward the intersection N. In Expressions (6-1) and (6-2), JP with an arrow at the top means a vector from the feature quantity J to the feature quantity P. In Expression (6-2), JK with an arrow at the top means a vector from the feature quantity J to the feature quantity K.
また、式(6−1)及び式(6−2)から、式(6−3)が成り立つ。 Moreover, Formula (6-3) is realized from Formula (6-1) and Formula (6-2).
したがって、仮想平面における交点Nの座標は、下記式(6−4)により算出することができる。 Therefore, the coordinates of the intersection N on the virtual plane can be calculated by the following equation (6-4).
ここで、特徴量J=(0,−1.8)、ベクトルJN=(Nx,Ny+1.8)、及びベクトルJK=(0.2,−0.4)を用いて式(6−4)を解くと、交点Nの座標(Nx,Ny)は(0.04,−1.88)となる。よって、線分JNと線分NKとの比|JN|:|NK|は、0.09:0.36(=1:4)となる。 Here, using the feature quantity J = (0, −1.8), the vector JN = (Nx, Ny + 1.8), and the vector JK = (0.2, −0.4), Expression (6-4) Is solved, the coordinates (Nx, Ny) of the intersection N are (0.04, -1.88). Therefore, the ratio | JN |: | NK | of the line segment JN and the line segment NK is 0.09: 0.36 (= 1: 4).
線分JNと線分NKとの比を求めた後、特徴決定部106は、注視点毎に、識別子がR−jのレコードの特徴量と、識別子がR−kのレコードの特徴量とを結ぶ線分を1:4で分割する点を算出し、それらの点を対象人物が各注視点を注視したときの特徴量とする。例えば、注視点PG1を注視したときの特徴量は、識別子がR−jのレコードでは(−4,−3)であり、識別子がR−kのレコードでは(−4.5,−4)である。そのため、特徴決定部106は、下記式(7−1)及び式(7−2)により、対象人物が注視点PG1を注視したときの特徴量(X,Y)を算出する。
After obtaining the ratio between the line segment JN and the line segment NK, the
X=−4+{1/(1+4)}・{−4.5−(−4)}
=−4.1 (7−1)
Y=−3+{1/(1+4)}・{−4−(−3)}
=−3.2 (7−2)
X = -4 + {1 / (1 + 4)}. {-4.5-(-4)}
= -4.1 (7-1)
Y = −3 + {1 / (1 + 4)} · {−4 − (− 3)}
= -3.2 (7-2)
このように、本実施形態においては、算出した特徴量又は補正した特徴量と一致する特徴量が眼球特徴データベースに登録されていない場合、算出した特徴量又は補正した特徴量と近い特徴量を持つレコードに基づいて、対象人物の眼球特徴を決定する。このため、例えば、眼球特徴データベースに登録するレコード数の増大を抑制し、データベースの肥大化による較正パラメータ決定処理の処理負荷の増大を抑制することが可能となる。また、本実施形態においては、算出した特徴量又は補正した特徴量から抽出したレコードの特徴量までの距離に基づいて対象人物の眼球特徴を算出する。そのため、例えば、算出した特徴量又は補正した特徴量に最も近い特徴量を持つレコードを対象人物の眼球特徴に決定する場合に比べ、より対象人物の実際の眼球特徴に近い特徴量を算出することができ、視線検出の精度が向上する。 As described above, in the present embodiment, when a feature quantity that matches the calculated feature quantity or the corrected feature quantity is not registered in the eyeball feature database, the calculated feature quantity or the feature quantity close to the corrected feature quantity is included. Based on the record, the eyeball characteristics of the target person are determined. For this reason, for example, it is possible to suppress an increase in the number of records registered in the eyeball feature database, and to suppress an increase in the processing load of the calibration parameter determination process due to the enlargement of the database. In this embodiment, the eyeball feature of the target person is calculated based on the distance from the calculated feature value or the corrected feature value to the feature value of the extracted record. Therefore, for example, the feature quantity closer to the actual eyeball feature of the target person is calculated compared to the case where the record having the feature quantity closest to the calculated feature quantity or the corrected feature quantity is determined as the eyeball feature of the target person. This improves the accuracy of eye-gaze detection.
なお、図25のフローチャートは、較正パラメータ決定処理における眼球特徴を決定する処理の一例に過ぎない。眼球特徴を決定する処理は、適宜変更可能であり、図25に示した手順に限らず、一部の処理の内容を変更したものであってもよいである。 Note that the flowchart of FIG. 25 is merely an example of processing for determining eye features in the calibration parameter determination processing. The process of determining the eyeball feature can be changed as appropriate, and is not limited to the procedure shown in FIG.
また、予め用意しておく、複数の注視点のそれぞれを注視したときの眼球の特徴量の組を含む眼球特徴の情報は、上記のように、データベースに限らず、それぞれを識別可能な別の態様で記憶部に登録(記憶)させてもよい。 In addition, as described above, the eyeball feature information including a set of eyeball feature quantities when each of a plurality of gazing points is prepared is not limited to the database as described above. It may be registered (stored) in the storage unit in a manner.
また、本実施形態の視線検出装置1は、第1の実施形態の視線検出装置1と同様、画像から対象人物の視線を検出する種々の視線検出システムに適用可能である。
The line-of-
上記の各実施形態に係る視線検出装置1は、例えば、コンピュータと、当該コンピュータに実行させるプログラムとを用いて実現することが可能である。以下、コンピュータとプログラムとを用いて実現される視線検出装置1について、図28を参照して説明する。
The line-of-
図28は、コンピュータのハードウェア構成を示す図である。
図28に示すように、コンピュータ21は、プロセッサ2101と、主記憶装置2102と、補助記憶装置2103と、入力装置2104と、出力装置2105と、入出力インタフェース2106と、通信制御装置2107と、媒体駆動装置2108と、を備える。コンピュータ21におけるこれらの要素2101〜2108は、バス2110により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
FIG. 28 is a diagram illustrating a hardware configuration of a computer.
As shown in FIG. 28, the
プロセッサ2101は、Central Processing Unit(CPU)やMicro Processing Unit(MPU)等である。プロセッサ2101は、オペレーティングシステムを含む各種のプログラムを実行することにより、コンピュータ21の全体の動作を制御する。また、プロセッサ2101は、例えば、図8〜図10に示した較正パラメータ決定処理や視線検出処理等を行う。
The
主記憶装置2102は、図示しないRead Only Memory(ROM)及びRandom Access Memory(RAM)を含む。主記憶装置2102のROMには、例えば、コンピュータ21の起動時にプロセッサ2101が読み出す所定の基本制御プログラム等が予め記録されている。また、主記憶装置2102のRAMは、プロセッサ2101が、各種のプログラムを実行する際に必要に応じて作業用記憶領域として使用する。主記憶装置2102のRAMは、例えば、赤外線カメラ201から取得した画像、当該画像に基づいて算出した眼球の特徴量、較正パラメータ等の記憶に利用可能である。
The
補助記憶装置2103は、例えば、フラッシュメモリ等の不揮発性メモリ(Solid State Drive(SSD)を含む)やHard Disk Drive(HDD)である。補助記憶装置2103には、プロセッサ2101によって実行される各種のプログラムや各種のデータ等の記憶に利用可能である。補助記憶装置2103は、例えば、較正パラメータ決定処理及び視線検出処理を含むプログラム等の記憶に利用可能である。また、補助記憶装置2103は、例えば、眼球特徴データベース121,123、赤外線カメラ201から取得した画像、較正パラメータ等の記憶や、検出した視線の履歴等の記憶に利用可能である。
The
入力装置2104は、例えば、キーボード装置やタッチパネル装置等である。コンピュータ21のオペレータ(利用者)が入力装置2104に対して所定の操作を行うと、入力装置2104は、その操作内容に対応付けられている入力情報をプロセッサ2101に送信する。入力装置2104は、例えば、図1及び図19の入力装置3として利用可能である。
The
出力装置2105は、例えば、表示装置やスピーカ等である。出力装置2105は、例えば、対象人物への注視する注視点の通知等に利用可能である。すなわち、出力装置2105は、図1及び図19の出力装置4として利用可能である。
The
入出力インタフェース2106は、コンピュータ21と、他の電子機器とを接続する。入出力インタフェース2106は、例えば、Universal Serial Bus(USB)規格のコネクタ等を備える。入出力インタフェース2106は、例えば、コンピュータ21と視線センサ2の赤外線カメラ201との接続に利用可能である。
The input /
通信制御装置2107は、コンピュータ21を通信ネットワークに接続し、通信ネットワークを介したコンピュータ21と他の電子機器との各種通信を制御する装置である。通信制御装置2107は、例えば、データベース作成装置7で作成した眼球特徴データベースを取得して補助記憶装置2103等に記憶させることに利用可能である。また、通信制御装置2107は、図14に示した視線検出システム17のようなコンピュータ21(視線検出装置1)と管理サーバ15との通信に利用可能である。
The
媒体駆動装置2108は、可搬型記憶媒体22に記録されているプログラムやデータの読み出し、補助記憶装置2103に記憶されたデータ等の可搬型記憶媒体22への書き込みを行う。媒体駆動装置2108として、例えば、1種類又は複数種類の規格に対応したメモリカード用リーダ/ライタが利用可能である。媒体駆動装置2108としてメモリカード用リーダ/ライタを用いる場合、可搬型記憶媒体22としては、メモリカード用リーダ/ライタが対応している規格、例えば、Secure Digital(SD)規格のメモリカード(フラッシュメモリ)等を利用可能である。また、可搬型記録媒体22としては、例えば、USB規格のコネクタを備えたフラッシュメモリが利用可能である。可搬型記録媒体22は、上記の較正パラメータ決定処理、及び視線検出処理を含むプログラム、眼球特徴データベース121,123、較正パラメータ、検出した視線等の記憶に利用可能である。
The
また、コンピュータ21が媒体駆動装置2108として利用可能な光ディスクドライブを搭載している場合、当該光ディスクドライブで認識可能な各種の光ディスクを可搬型記録媒体22として利用可能である。可搬型記録媒体22として利用可能な光ディスクには、例えば、Compact Disc(CD)、Digital Versatile Disc(DVD)、Blu-ray Disc(Blu-rayは登録商標)等がある。
Further, when the
コンピュータ21は、図8の処理を開始する命令を入力すると、プロセッサ2101が補助記憶装置2103等から較正パラメータ決定処理及び視線検出処理を含むプログラムを読み出して実行する。この際、プロセッサ2101は、画像取得部101、注視点指示部102、特徴量算出部103、特徴量補正部105、特徴決定部106、パラメータ算出部107、及び視線算出部108として機能する(動作する)。更に、コンピュータ21が第3の実施形態で説明した処理を実行する場合、プロセッサ2101は、虹彩半径算出部110としても機能する(動作する)。また、主記憶装置2102のRAMや補助記憶装置2103等は、眼球特徴データベース121,123を記憶する記憶部、検出した視線を記憶する視線記憶部122として機能する。
When the
更に、コンピュータ21は、視線検出装置1として動作させるだけでなく、データベース作成装置7として動作させることも可能である。コンピュータ21をデータベース作成装置7として動作させる場合、プロセッサ2101には、図5の作成処理を含むプログラムを実行させる。この場合、プロセッサ2101は、図4に示した注視指示部701、画像取得部702、特徴量算出部703、距離算出部704、登録部705として機能する(動作する)。また、主記憶装置2102のRAMや補助記憶装置2103等は、複数の注視点を示す情報を記憶する記憶部、赤外線カメラ201から取得した画像を記憶する記憶部、眼球特徴データベース121を記憶する記憶部として機能する。
Furthermore, the
なお、視線検出装置1又はデータベース作成装置7として動作させるコンピュータ21は、図28に示した全ての要素2101〜2108を含む必要はなく、用途や条件に応じて一部の要素を省略することも可能である。例えば、コンピュータ21は、通信制御装置2107或いは媒体駆動装置2108が省略されたものであってもよい。
Note that the
以上記載した各実施形態に関し、更に以下の付記を開示する。
(付記1)
カメラと所定の位置関係にある視点から予め定めた複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴が角膜半径と対応付ける態様で複数登録された記憶部と、
前記複数の注視点のうちの第一の注視点を注視している人物について、前記人物と所定の位置関係にあるカメラによって撮像された画像に基づいて、前記人物の眼球の特徴量を算出する特徴量算出部と、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定する特徴決定部と、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出するパラメータ算出部と、
を備えることを特徴とする視線検出装置。
(付記2)
前記眼球の特徴量は、前記画像に写っている前記人物の眼球における瞳孔の中心と、角膜反射の中心との位置関係を表す値である、
ことを特徴とする付記1に記載の視線検出装置。
(付記3)
前記記憶部に登録された複数の前記眼球特徴は、それぞれ、前記カメラから前記視点までの距離を表す情報を更に含み、
前記視線検出装置は、前記画像に基づいて前記カメラから前記人物までの距離を算出し、算出した前記距離と、前記記憶部に登録された前記距離を表す情報とに基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする付記2に記載の視線検出装置。
(付記4)
前記カメラから前記視点までの距離を表す前記情報、及び前記特徴量補正部で算出する前記距離は、前記画像内における前記人物の両眼の前記瞳孔の距離又は前記角膜反射の距離である、
ことを特徴とする付記3に記載の視線検出装置。
(付記5)
前記眼球の特徴量は、前記画像に写っている前記人物の眼球における瞳孔の中心と、角膜反射の中心との位置関係を表す値であり、
前記視線検出装置は、取得した前記画像に写っている右眼における前記眼球の特徴量と、左眼における前記眼球の特徴量との差に基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする付記1に記載の視線検出装置。
(付記6)
前記記憶部に登録された前記眼球の特徴量は、顔が前記カメラと正対している状態で前記複数の注視点のそれぞれを注視したときの特徴量であり、
前記特徴量補正部は、前記右眼における前記眼球の特徴量と、前記左眼における前記眼球の特徴量との差が閾値以上である場合に、前記右眼における前記眼球の特徴量及び前記左眼における前記眼球の特徴量のいずれか一方の特徴量を、他方の特徴量と一致させる補正を行う、
ことを特徴とする付記5に記載の視線検出装置。
(付記7)
前記記憶部に登録された複数の前記眼球特徴は、それぞれ、前記眼球の虹彩半径を含み、
前記視線検出装置は、取得した前記画像に基づいて前記人物の眼球の虹彩半径を算出する虹彩半径算出部、を更に備え、
前記特徴決定部は、前記第一の注視点に対応する前記眼球の特徴量と、前記虹彩半径とに基づいて、前記人物の眼球特徴を決定する、
ことを特徴とする付記1に記載の視線検出装置。
(付記8)
前記特徴決定部は、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量と一致する眼球特徴、又は算出した前記人物の眼球の特徴量に最も近い眼球特徴を、前記人物の眼球特徴に決定する、
ことを特徴とする付記1に記載の視線検出装置。
(付記9)
前記特徴決定部は、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量に近い2個の眼球特徴を抽出し、
抽出した前記眼球特徴の一方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、及び抽出した前記眼球特徴の他方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、に基づいて、前記人物が前記複数の注視点のそれぞれを注視したときの眼球の特徴量を推定し、
推定した前記眼球の特徴量の組を前記人物の眼球特徴に決定する、
ことを特徴とする付記1に記載の視線検出装置。
(付記10)
コンピュータが、
カメラから取得した、予め定めた複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、前記人物の眼球の特徴量を算出し、
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理を実行することを特徴とする視線検出方法。
(付記11)
前記登録情報における複数の前記眼球特徴は、それぞれ、右眼と左眼との瞳孔間距離を含み、
前記視線検出方法は、前記人物の眼球の特徴量を算出した後、前記コンピュータが、前記画像に基づいて算出した前記人物の瞳孔間距離と、前記眼球特徴の前記瞳孔間距離とに基づいて、算出した前記人物の眼球の特徴量を補正する処理を含み、
前記眼球の特徴量を補正した場合、前記コンピュータは、前記人物の眼球特徴を決定する処理において、補正した前記眼球の特徴量と、前記登録情報とに基づいて、前記人物の眼球特徴を決定する、
ことを特徴とする付記10に記載の視線検出方法。
(付記12)
前記人物の眼球特徴を決定する処理において、前記コンピュータは、
前記登録情報における複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量に近い2個の眼球特徴を抽出し、
抽出した前記眼球特徴の一方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、及び抽出した前記眼球特徴の他方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、に基づいて、前記人物が前記複数の注視点のそれぞれを注視したときの眼球の特徴量を推定し、
推定した前記眼球の特徴量の組を前記人物の眼球特徴に決定する、
ことを特徴とする付記10に記載の視線検出方法。
(付記13)
カメラから取得した、予め定めた複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、前記人物の眼球の特徴量を算出し、
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理をコンピュータに実行させる視線検出プログラム。
The following additional notes are disclosed for each of the embodiments described above.
(Appendix 1)
A storage unit in which a plurality of eyeball features including a set of eyeball feature amounts detected when each of a plurality of gaze points determined in advance from viewpoints in a predetermined positional relationship with the camera is associated with a corneal radius are registered When,
For a person who is gazing at a first gazing point of the plurality of gazing points, a feature amount of the eyeball of the person is calculated based on an image captured by a camera having a predetermined positional relationship with the person. A feature amount calculation unit;
Based on the feature amount of the eyeball corresponding to the first gazing point and the calculated feature amount of the eyeball of the person among the plurality of eyeball features registered in the storage unit, the eyeball feature of the person is obtained. A feature determining unit to determine;
A parameter calculation unit that calculates a calibration parameter for the line of sight of the person based on the feature amounts of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection device comprising:
(Appendix 2)
The feature amount of the eyeball is a value representing a positional relationship between the center of the pupil and the center of corneal reflection in the eyeball of the person shown in the image.
The line-of-sight detection apparatus according to
(Appendix 3)
Each of the plurality of eyeball features registered in the storage unit further includes information representing a distance from the camera to the viewpoint,
The line-of-sight detection device calculates a distance from the camera to the person based on the image, and calculates the feature amount based on the calculated distance and information indicating the distance registered in the storage unit A feature amount correction unit that corrects the feature amount of the eyeball calculated by the unit;
The line-of-sight detection apparatus according to
(Appendix 4)
The information representing the distance from the camera to the viewpoint, and the distance calculated by the feature amount correction unit is a distance of the pupil of the eyes of the person in the image or a distance of the corneal reflection.
The line-of-sight detection apparatus according to
(Appendix 5)
The feature amount of the eyeball is a value representing the positional relationship between the center of the pupil in the eyeball of the person shown in the image and the center of corneal reflection,
The line-of-sight detection device, based on a difference between a feature amount of the eyeball in the right eye and a feature amount of the eyeball in the left eye, which are captured in the acquired image, of the eyeball calculated by the feature amount calculation unit A feature amount correction unit for correcting the feature amount;
The line-of-sight detection apparatus according to
(Appendix 6)
The feature amount of the eyeball registered in the storage unit is a feature amount when each of the plurality of gazing points is gazeed in a state where a face is facing the camera,
When the difference between the feature amount of the eyeball in the right eye and the feature amount of the eyeball in the left eye is greater than or equal to a threshold value, the feature amount correction unit and the feature amount of the eyeball in the right eye and the left eye Performing correction to match one of the feature quantities of the eyeball in the eye with the other feature quantity;
The line-of-sight detection device according to
(Appendix 7)
Each of the plurality of eyeball features registered in the storage unit includes an iris radius of the eyeball,
The line-of-sight detection device further includes an iris radius calculation unit that calculates an iris radius of the human eyeball based on the acquired image,
The feature determination unit determines the eyeball feature of the person based on the feature amount of the eyeball corresponding to the first gazing point and the iris radius.
The line-of-sight detection apparatus according to
(Appendix 8)
The feature determination unit includes:
Of the plurality of eyeball features registered in the storage unit, the eyeball feature amount corresponding to the first gaze point matches the calculated eyeball feature amount of the person, or the calculated person Determining the eyeball feature closest to the eyeball feature amount to the eyeball feature of the person.
The line-of-sight detection apparatus according to
(Appendix 9)
The feature determination unit includes:
Two eyeball features whose eyeball feature values corresponding to the first gazing point among the plurality of eyeball features registered in the storage unit are close to the calculated human eyeball feature values are extracted,
The distance between the eyeball feature amount in one eyeball feature of the extracted eyeball feature and the calculated eyeball feature amount, and the eyeball feature amount in the other eyeball feature of the extracted eyeball feature and the calculated eyeball feature Based on the distance to the amount, the feature amount of the eyeball when the person gazes each of the plurality of gazing points is estimated,
Determining a set of estimated eyeball features as the human eyeball features;
The line-of-sight detection apparatus according to
(Appendix 10)
Computer
Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection method characterized by executing processing.
(Appendix 11)
The plurality of eyeball features in the registration information each include an interpupillary distance between a right eye and a left eye,
In the gaze detection method, after calculating the feature amount of the eyeball of the person, based on the interpupillary distance of the person calculated by the computer based on the image and the interpupillary distance of the eyeball feature, Including a process of correcting the calculated characteristic amount of the eyeball of the person,
When the feature amount of the eyeball is corrected, the computer determines the eyeball feature of the person based on the corrected feature amount of the eyeball and the registration information in the process of determining the eyeball feature of the person. ,
The line-of-sight detection method according to
(Appendix 12)
In the process of determining the eyeball characteristics of the person, the computer
Two eyeball features whose eyeball feature values corresponding to the first gaze point among the plurality of eyeball features in the registration information are close to the calculated human eyeball feature values are extracted,
The distance between the eyeball feature amount in one eyeball feature of the extracted eyeball feature and the calculated eyeball feature amount, and the eyeball feature amount in the other eyeball feature of the extracted eyeball feature and the calculated eyeball feature Based on the distance to the amount, the feature amount of the eyeball when the person gazes each of the plurality of gazing points is estimated,
Determining a set of estimated eyeball features as the human eyeball features;
The line-of-sight detection method according to
(Appendix 13)
Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection program that causes a computer to execute processing.
1 視線検出装置
101,702 画像取得部
102,701 注視指示部
103,703 特徴量算出部
104 処理切替部
105 特徴量補正部
106 特徴決定部
107 パラメータ算出部
108 視線算出部
121,123 眼球特徴データベース
122 視線記憶部
2 視線センサ
201 赤外線カメラ
202 赤外線LED
3 入力装置
4 出力装置
5 画像
6 眼球
601,601R,601L 角膜反射
602,602R,602L 瞳孔
7 データベース作成装置
8,8A,8B 車両
9 人物
12 表示装置
13 情報処理装置
15 管理サーバ
16 通信ネットワーク
21 コンピュータ
2101 プロセッサ
2102 主記憶装置
2103 補助記憶装置
2104 入力装置
2105 出力装置
2106 入出力インタフェース
2107 通信制御装置
2108 媒体駆動装置
22 可搬型記録媒体
DESCRIPTION OF
3
Claims (9)
前記複数の注視点のうちの第一の注視点を注視している人物について、前記人物と所定の位置関係にあるカメラによって撮像された画像に基づいて、前記人物の眼球の特徴量を算出する特徴量算出部と、
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定する特徴決定部と、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出するパラメータ算出部と、
を備えることを特徴とする視線検出装置。 A storage unit in which a plurality of eyeball features including a set of eyeball feature amounts detected when each of a plurality of gaze points determined in advance from viewpoints in a predetermined positional relationship with the camera is associated with a corneal radius are registered When,
For a person who is gazing at a first gazing point of the plurality of gazing points, a feature amount of the eyeball of the person is calculated based on an image captured by a camera having a predetermined positional relationship with the person. A feature amount calculation unit;
Based on the feature amount of the eyeball corresponding to the first gazing point and the calculated feature amount of the eyeball of the person among the plurality of eyeball features registered in the storage unit, the eyeball feature of the person is obtained. A feature determining unit to determine;
A parameter calculation unit that calculates a calibration parameter for the line of sight of the person based on the feature amounts of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection device comprising:
ことを特徴とする請求項1に記載の視線検出装置。 The feature amount of the eyeball is a value representing a positional relationship between the center of the pupil and the center of corneal reflection in the eyeball of the person shown in the image.
The line-of-sight detection apparatus according to claim 1.
前記視線検出装置は、前記画像に基づいて前記カメラから前記人物までの距離を算出し、算出した前記距離と、前記記憶部に登録された前記距離を表す情報とに基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする請求項2に記載の視線検出装置。 Each of the plurality of eyeball features registered in the storage unit further includes information representing a distance from the camera to the viewpoint,
The line-of-sight detection device calculates a distance from the camera to the person based on the image, and calculates the feature amount based on the calculated distance and information indicating the distance registered in the storage unit A feature amount correction unit that corrects the feature amount of the eyeball calculated by the unit;
The line-of-sight detection apparatus according to claim 2.
前記視線検出装置は、取得した前記画像に写っている右眼における前記眼球の特徴量と、左眼における前記眼球の特徴量との差に基づいて、前記特徴量算出部で算出した前記眼球の特徴量を補正する特徴量補正部を、更に備える、
ことを特徴とする請求項1に記載の視線検出装置。 The feature amount of the eyeball is a value representing the positional relationship between the center of the pupil in the eyeball of the person shown in the image and the center of corneal reflection,
The line-of-sight detection device, based on a difference between a feature amount of the eyeball in the right eye and a feature amount of the eyeball in the left eye, which are captured in the acquired image, of the eyeball calculated by the feature amount calculation unit A feature amount correction unit for correcting the feature amount;
The line-of-sight detection apparatus according to claim 1.
前記視線検出装置は、取得した前記画像に基づいて前記人物の眼球の虹彩半径を算出する虹彩半径算出部、を更に備え、
前記特徴決定部は、前記第一の注視点に対応する前記眼球の特徴量と、前記虹彩半径とに基づいて、前記人物の眼球特徴を決定する、
ことを特徴とする請求項1に記載の視線検出装置。 Each of the plurality of eyeball features registered in the storage unit includes an iris radius of the eyeball,
The line-of-sight detection device further includes an iris radius calculation unit that calculates an iris radius of the human eyeball based on the acquired image,
The feature determination unit determines the eyeball feature of the person based on the feature amount of the eyeball corresponding to the first gazing point and the iris radius.
The line-of-sight detection apparatus according to claim 1.
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量と一致する眼球特徴、又は算出した前記人物の眼球の特徴量に最も近い眼球特徴を、前記人物の眼球特徴に決定する、
ことを特徴とする請求項1に記載の視線検出装置。 The feature determination unit includes:
Of the plurality of eyeball features registered in the storage unit, the eyeball feature amount corresponding to the first gaze point matches the calculated eyeball feature amount of the person, or the calculated person Determining the eyeball feature closest to the eyeball feature amount to the eyeball feature of the person.
The line-of-sight detection apparatus according to claim 1.
前記記憶部に登録された複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量が、算出した前記人物の眼球の特徴量に近い2個の眼球特徴を抽出し、
抽出した前記眼球特徴の一方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、及び抽出した前記眼球特徴の他方の眼球特徴における眼球の特徴量と算出した前記眼球の特徴量との距離、に基づいて、前記人物が前記複数の注視点のそれぞれを注視したときの眼球の特徴量を推定し、
推定した前記眼球の特徴量の組を前記人物の眼球特徴に決定する、
ことを特徴とする請求項1に記載の視線検出装置。 The feature determination unit includes:
Two eyeball features whose eyeball feature values corresponding to the first gazing point among the plurality of eyeball features registered in the storage unit are close to the calculated human eyeball feature values are extracted,
The distance between the eyeball feature amount in one eyeball feature of the extracted eyeball feature and the calculated eyeball feature amount, and the eyeball feature amount in the other eyeball feature of the extracted eyeball feature and the calculated eyeball feature Based on the distance to the amount, the feature amount of the eyeball when the person gazes each of the plurality of gazing points is estimated,
Determining a set of estimated eyeball features as the human eyeball features;
The line-of-sight detection apparatus according to claim 1.
カメラから取得した、予め定めた複数の注視点のうちの第一の注視点を注視している人物の画像に基づいて、前記人物の眼球の特徴量を算出し、
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理を実行することを特徴とする視線検出方法。 Computer
Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection method characterized by executing processing.
カメラと所定の位置関係にある視点から前記複数の注視点のそれぞれを注視したときに検出される眼球の特徴量の組を含む眼球特徴を、角膜半径と対応付ける態様で記憶装置に複数登録させた登録情報を参照し、複数の前記眼球特徴のうちの前記第一の注視点に対応する眼球の特徴量と、算出した前記人物の眼球の特徴量とに基づいて、前記人物の眼球特徴を決定し、
決定した前記眼球特徴に含まれる前記複数の眼球の特徴量に基づいて、前記人物の視線に対する較正パラメータを算出する、
処理をコンピュータに実行させる視線検出プログラム。 Based on the image of the person gazing at the first gazing point among a plurality of predetermined gazing points obtained from the camera, the feature amount of the eyeball of the person is calculated,
A plurality of eyeball features including a set of eyeball feature quantities detected when each of the plurality of gazing points from a viewpoint having a predetermined positional relationship with the camera is associated with the corneal radius in the storage device. With reference to the registration information, the eyeball feature of the person is determined based on the feature amount of the eyeball corresponding to the first gazing point among the plurality of eyeball features and the calculated feature amount of the eyeball of the person And
Calculating a calibration parameter for the line of sight of the person based on the feature quantities of the plurality of eyeballs included in the determined eyeball feature;
A line-of-sight detection program that causes a computer to execute processing.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016109305A JP2017213191A (en) | 2016-05-31 | 2016-05-31 | Sight line detection device, sight line detection method and sight line detection program |
US15/491,539 US20170344110A1 (en) | 2016-05-31 | 2017-04-19 | Line-of-sight detector and line-of-sight detection method |
EP17167719.8A EP3251584A1 (en) | 2016-05-31 | 2017-04-24 | Line-of-sight detector and line-of-sight detection method |
CN201710352566.4A CN107440678A (en) | 2016-05-31 | 2017-05-18 | Line-of-sight detection device and method for detecting sight line |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016109305A JP2017213191A (en) | 2016-05-31 | 2016-05-31 | Sight line detection device, sight line detection method and sight line detection program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017213191A true JP2017213191A (en) | 2017-12-07 |
Family
ID=58632247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016109305A Pending JP2017213191A (en) | 2016-05-31 | 2016-05-31 | Sight line detection device, sight line detection method and sight line detection program |
Country Status (4)
Country | Link |
---|---|
US (1) | US20170344110A1 (en) |
EP (1) | EP3251584A1 (en) |
JP (1) | JP2017213191A (en) |
CN (1) | CN107440678A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508679A (en) * | 2018-11-19 | 2019-03-22 | 广东工业大学 | Realize method, apparatus, equipment and the storage medium of eyeball three-dimensional eye tracking |
CN113808160A (en) * | 2021-08-05 | 2021-12-17 | 虹软科技股份有限公司 | Sight direction tracking method and device |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6751324B2 (en) * | 2016-09-14 | 2020-09-02 | 株式会社デンソーアイティーラボラトリ | Iris detection device, iris detection method, and program |
KR101776944B1 (en) * | 2017-01-09 | 2017-09-08 | 주식회사 쓰리이 | Method for coding iris pattern |
CN111513670B (en) * | 2018-12-21 | 2023-10-10 | 托比股份公司 | Estimation of corneal radius for use in eye tracking |
JP7192570B2 (en) * | 2019-02-27 | 2022-12-20 | 株式会社Jvcケンウッド | Recording/playback device, recording/playback method and program |
CN109976535B (en) * | 2019-05-05 | 2022-12-02 | 北京七鑫易维信息技术有限公司 | Calibration method, device, equipment and storage medium |
CN110310373B (en) * | 2019-06-28 | 2023-12-12 | 京东方科技集团股份有限公司 | Image processing method of augmented reality equipment and augmented reality equipment |
CN112307839A (en) * | 2019-07-31 | 2021-02-02 | 深圳熙卓科技有限公司 | Abnormal person detection method and terminal equipment |
KR102097390B1 (en) * | 2019-10-10 | 2020-04-06 | 주식회사 메디씽큐 | Smart glasses display device based on eye tracking |
CN111459271B (en) * | 2020-03-27 | 2024-03-08 | Oppo广东移动通信有限公司 | Gaze offset error determination method and device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0735966A (en) | 1993-06-28 | 1995-02-07 | Nikon Corp | Line-of-sight detecting device and camera equipped therewith |
JP2000010723A (en) | 1998-06-18 | 2000-01-14 | Mr System Kenkyusho:Kk | Calibration method for sight sensor, sight input device, and program storage medium |
US7533989B2 (en) * | 2003-12-25 | 2009-05-19 | National University Corporation Shizuoka University | Sight-line detection method and device, and three-dimensional view-point measurement device |
JP5529660B2 (en) * | 2010-07-20 | 2014-06-25 | パナソニック株式会社 | Pupil detection device and pupil detection method |
JP6217445B2 (en) * | 2013-03-07 | 2017-10-25 | 株式会社Jvcケンウッド | Diagnosis support apparatus and diagnosis support method |
JP2015144635A (en) * | 2014-01-31 | 2015-08-13 | 株式会社Jvcケンウッド | detection device and detection method |
CN106163418B (en) * | 2014-03-25 | 2019-06-18 | Jvc建伍株式会社 | Detection device and detection method |
-
2016
- 2016-05-31 JP JP2016109305A patent/JP2017213191A/en active Pending
-
2017
- 2017-04-19 US US15/491,539 patent/US20170344110A1/en not_active Abandoned
- 2017-04-24 EP EP17167719.8A patent/EP3251584A1/en not_active Withdrawn
- 2017-05-18 CN CN201710352566.4A patent/CN107440678A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508679A (en) * | 2018-11-19 | 2019-03-22 | 广东工业大学 | Realize method, apparatus, equipment and the storage medium of eyeball three-dimensional eye tracking |
CN109508679B (en) * | 2018-11-19 | 2023-02-10 | 广东工业大学 | Method, device and equipment for realizing three-dimensional eye gaze tracking and storage medium |
CN113808160A (en) * | 2021-08-05 | 2021-12-17 | 虹软科技股份有限公司 | Sight direction tracking method and device |
CN113808160B (en) * | 2021-08-05 | 2024-01-16 | 虹软科技股份有限公司 | Sight direction tracking method and device |
Also Published As
Publication number | Publication date |
---|---|
EP3251584A1 (en) | 2017-12-06 |
US20170344110A1 (en) | 2017-11-30 |
CN107440678A (en) | 2017-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017213191A (en) | Sight line detection device, sight line detection method and sight line detection program | |
CN105247448B (en) | The calibration of eye position | |
CN107004275B (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object | |
US9804395B2 (en) | Range calibration of a binocular optical augmented reality system | |
JP5923603B2 (en) | Display device, head mounted display, calibration method, calibration program, and recording medium | |
WO2015190204A1 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
KR101471488B1 (en) | Device and Method for Tracking Sight Line | |
JPWO2018030515A1 (en) | Gaze detection device | |
US11244145B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP7168953B2 (en) | Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program | |
US20200401805A1 (en) | Image processing apparatus and method of controlling the same | |
JP3372926B2 (en) | Head mounted display device and head mounted display system | |
JP2015152938A (en) | information processing apparatus, information processing method, and program | |
CN111527466A (en) | Information processing apparatus, information processing method, and program | |
US20210224591A1 (en) | Methods and systems for training an object detection algorithm | |
KR100903490B1 (en) | Ergonomic Human Computer Interface | |
JP2021018729A (en) | Personal identification apparatus, head-mounted display, content distribution server, and personal identification method | |
US20130321608A1 (en) | Eye direction detecting apparatus and eye direction detecting method | |
JP6496917B2 (en) | Gaze measurement apparatus and gaze measurement method | |
US11703682B2 (en) | Apparatus configured to display shared information on plurality of display apparatuses and method thereof | |
JP2011192220A (en) | Device, method and program for determination of same person | |
WO2024047990A1 (en) | Information processing device | |
JP6269177B2 (en) | Pupil detection device, gaze detection device, and pupil detection method | |
WO2020250270A1 (en) | Operational assistance system and operational assistance method | |
US20210134004A1 (en) | Information processing device, information processing method, and program |