JP2015169959A - Rotation angle calculation method, gaze point detection method, information input method, rotation angle calculation apparatus, gaze point detection apparatus, information input apparatus, rotation angle calculation program, gaze point detection program, and information input program - Google Patents

Rotation angle calculation method, gaze point detection method, information input method, rotation angle calculation apparatus, gaze point detection apparatus, information input apparatus, rotation angle calculation program, gaze point detection program, and information input program Download PDF

Info

Publication number
JP2015169959A
JP2015169959A JP2014042124A JP2014042124A JP2015169959A JP 2015169959 A JP2015169959 A JP 2015169959A JP 2014042124 A JP2014042124 A JP 2014042124A JP 2014042124 A JP2014042124 A JP 2014042124A JP 2015169959 A JP2015169959 A JP 2015169959A
Authority
JP
Japan
Prior art keywords
subject
rotation angle
visual axis
optical axis
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014042124A
Other languages
Japanese (ja)
Other versions
JP6324119B2 (en
Inventor
嘉伸 海老澤
Yoshinobu Ebisawa
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2014042124A priority Critical patent/JP6324119B2/en
Publication of JP2015169959A publication Critical patent/JP2015169959A/en
Application granted granted Critical
Publication of JP6324119B2 publication Critical patent/JP6324119B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect a gaze point with high accuracy, regardless of a posture of a subject.SOLUTION: A gaze point detection apparatus 1 includes two stereo cameras 2a, 2b for acquiring a face image of a subject A, light sources 3a, 3b, control circuits 4-6, and an image processing apparatus 7. The image processing apparatus 7 calculates coordinates of a corneal reflection point of the subject and a pupil center, on the basis of the face image acquired by the stereo cameras 2a, 2b, and calculates a direction of an optical axis on the basis of the coordinates. An origin correction vector ris calculated, as an error between the optical axis and a visual axis, to be formed when the subject is in one posture. The image processing apparatus 7 corrects the origin correction vector raccording to the posture of the subject, on the basis of constraints that the origin correction vector ris rotated around the visual axis at the same rotation angle in the left eye and the right eye of the subject. On the basis of the corrected origin correction vector r, the optical axis direction is corrected, to calculate a visual axis direction of the subject A. On the basis of the visual axis direction, a gaze point is detected.

Description

本発明は、対象者の画像に基づいて所定平面上の対象者の注視点を検出する回転角度算出方法、注視点検出方法、この注視点検出方法を用いた情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム、及び情報入力プログラムに関するものである。   The present invention relates to a rotation angle calculation method for detecting a gaze point of a subject on a predetermined plane based on the image of the subject, a gaze point detection method, an information input method using the gaze point detection method, a rotation angle calculation device, The present invention relates to a gaze point detection device, an information input device, a rotation angle calculation program, a gaze point detection program, and an information input program.

従来から、非接触で被験者の視線又は注視点を検出する装置が、ヒューマンインタラクションの分野で重要視されている。高精度の視線検出技術が実用化されれば、例えば、ドライバーの監視、商品の興味の度合いの調査、重度身体障害者のパーソナルコンピュータへのデータ入力などの様々な用途に適用できる。   2. Description of the Related Art Conventionally, an apparatus that detects a subject's gaze or gaze point in a non-contact manner has been regarded as important in the field of human interaction. If high-precision line-of-sight detection technology is put into practical use, it can be applied to various uses such as monitoring drivers, investigating the degree of interest in products, and inputting data into personal computers of severely disabled people.

非特許文献1,2に記載の注視点検出方法では、位置が既知であるカメラと、位置が既知であるディスプレイ画面上の1点との合計2点を対象者に注視させることによって、瞳孔の中心と角膜反射点との間の距離から対象者の視線方向を計算するための関数を補正して、その補正した関数を用いて視線方向及び注視点を検出する。このような注視点検出方法によれば、対象者の頭部が移動しても高精度の視線検出が可能である。   In the gaze point detection methods described in Non-Patent Documents 1 and 2, by making the subject gaze at a total of two points, a camera with a known position and one point on the display screen with a known position, A function for calculating the gaze direction of the subject is corrected from the distance between the center and the corneal reflection point, and the gaze direction and the gaze point are detected using the corrected function. According to such a gaze point detection method, it is possible to detect a line of sight with high accuracy even if the subject's head moves.

特に、非特許文献2に記載の注視点検出方法では、位置が既知であるディスプレイ画面上の1点を対象者に注視させて、眼球の対称性を考慮した際の中心軸である光軸と、眼球の網膜上の中心窩と対象者の注視点とを通る軸である視軸とのずれを補正する補正ベクトルを得ることにより、注視点検出精度や装置の利便性を向上させている。   In particular, in the gaze point detection method described in Non-Patent Document 2, an optical axis that is a central axis when considering the symmetry of the eyeball by letting the subject gaze at one point on the display screen whose position is known, By obtaining a correction vector for correcting a deviation between the visual axis that is an axis passing through the fovea on the retina of the eyeball and the gaze point of the subject, the gaze point detection accuracy and the convenience of the apparatus are improved.

Ebisawa Y. and Fukumoto K.: "Head-free, Remote Eye-gaze Detection System Based on Pupil-corneal Reflection Method with Easy Calibration Using Two Stereo-calibrated Video Cameras" IEEE Trans Biomed Eng., 60(10), pp.2952-2960, 2013.Ebisawa Y. and Fukumoto K .: "Head-free, Remote Eye-gaze Detection System Based on Pupil-corneal Reflection Method with Easy Calibration Using Two Stereo-calibrated Video Cameras" IEEE Trans Biomed Eng., 60 (10), pp. 2952-2960, 2013. 小笠原将人、安保寿樹、西田康太郎、福元清剛、海老澤嘉伸「簡易較正法による遠隔高精度注視点検出装置」、ViEW2011, I1-31, 7pages, 2010.Masato Ogasawara, Toshiki Anbo, Kotaro Nishida, Kiyotake Fukumoto, Yoshinobu Ebizawa “Remote and high-precision gaze detection device using simple calibration method”, ViEW2011, I1-31, 7pages, 2010.

しかしながら、例えば対象者が正面またはディスプレイ画面を向きながら、左右に頭部を側屈させた場合などに、対象者の頭部の回転が生じることがある。この場合、非特許文献2に記載の注視点検出方法では、補正ベクトルに対象者の頭部の回転が反映されず、注視点の検出の精度が低下する場合がある。   However, for example, when the subject turns his / her head sideways while facing the front or the display screen, the subject's head may rotate. In this case, in the gaze point detection method described in Non-Patent Document 2, the rotation of the subject's head is not reflected in the correction vector, and the accuracy of gaze point detection may be reduced.

そこで、本発明は、対象者の姿勢にかかわらず補正ベクトルの回転角度を高精度に算出できる回転角度算出方法、回転角度算出装置、及び回転角度算出プログラム、並びにこれらを用いた注視点検出方法、注視点検出装置、注視点検出プログラム、情報入力方法、情報入力装置、及び情報入力プログラムを提供することを目的とする。   Therefore, the present invention provides a rotation angle calculation method, a rotation angle calculation device, a rotation angle calculation program, and a gazing point detection method using these, which can calculate the rotation angle of the correction vector with high accuracy regardless of the posture of the subject. An object is to provide a gaze point detection device, a gaze point detection program, an information input method, an information input device, and an information input program.

上記課題を解決するため、本発明の回転角度算出方法は、2台以上のカメラと、対象者に光を照射する光源と、を用いて対象者の顔画像を生成する顔画像生成ステップと、2台以上のカメラによるそれぞれの顔画像に基づいて、光源からの光の対象者の角膜上の反射点である角膜反射点の座標と、対象者の瞳孔の中心である瞳孔中心の座標と、を計算する座標計算ステップと、角膜反射点の座標及び瞳孔中心の座標に基づいて、対象者の眼球の中心軸である光軸の方向を計算する光軸方向計算ステップと、対象者の眼球の中心窩と対象者の注視点とを結ぶ直線を視軸として、対象者が一の姿勢をとった時の光軸と視軸のずれを角膜反射点の座標及び瞳孔中心の座標に基づいて計算するずれ計算ステップと、光軸と視軸とのずれの視軸回りの回転角度が対象者の左眼と右眼とで同一であるという拘束条件に基づいて、視軸回りの回転角度を算出する回転角度算出ステップと、を備える。   In order to solve the above problem, a rotation angle calculation method of the present invention includes a face image generation step of generating a face image of a subject using two or more cameras and a light source that irradiates the subject with light. Based on the respective face images from two or more cameras, the coordinates of the corneal reflection point, which is the reflection point of the light from the light source on the subject's cornea, and the coordinates of the pupil center, which is the center of the subject's pupil, A coordinate calculation step that calculates the direction of the optical axis that is the central axis of the eyeball of the subject based on the coordinates of the corneal reflection point and the coordinates of the pupil center, Using the straight line connecting the fovea and the subject's gazing point as the visual axis, the deviation between the optical axis and visual axis when the subject takes one posture is calculated based on the coordinates of the corneal reflection point and the coordinates of the pupil center Deviation calculation step and rotation around the visual axis of the deviation between the optical axis and the visual axis. Angle based on the constraint that is identical with the left and right eyes of a subject, comprising a rotation angle calculation step of calculating a rotation angle of the visual axis around a.

また、本発明の回転角度算出装置は、対象者の顔画像に基づいて、該対象者の注視点を検出する注視点検出装置であって、対象者の顔画像を取得する2台以上のカメラと、対象者に光を照射する光源と、2台以上のカメラから出力された画像信号を処理する画像処理部と、を備え、画像処理部は、2台以上のカメラによるそれぞれの顔画像に基づいて、光源からの光の対象者の角膜上の反射点である角膜反射点の座標と、対象者の瞳孔の中心である瞳孔中心の座標と、を計算し、角膜反射点の座標及び瞳孔中心の座標に基づいて、対象者の眼球の中心軸である光軸の方向を計算し、対象者の眼球の中心窩と対象者の注視点とを結ぶ直線を視軸として、対象者が一の姿勢をとった時の光軸と視軸のずれを角膜反射点の座標及び瞳孔中心の座標に基づいて計算し、光軸と視軸とのずれの視軸回りの回転角が対象者の左眼と右眼とで同一であるという拘束条件に基づいて、視軸回りの回転角度を算出する。   The rotation angle calculation device according to the present invention is a gaze point detection device that detects a gaze point of the subject based on the face image of the subject, and two or more cameras that acquire the face image of the subject And a light source that irradiates the subject with light and an image processing unit that processes image signals output from two or more cameras, and the image processing unit applies each of the face images from the two or more cameras to each face image. Based on the coordinates of the corneal reflection point, which is the reflection point of the light from the light source on the subject's cornea, and the coordinates of the pupil center, which is the center of the subject's pupil, the coordinates of the corneal reflection point and the pupil are calculated. Based on the coordinates of the center, the direction of the optical axis, which is the central axis of the subject's eyeball, is calculated, and the subject is identified by using the straight line connecting the fovea of the subject's eyeball and the subject's point of interest as the visual axis. The difference between the optical axis and the visual axis when the posture is taken is changed to the coordinates of the corneal reflection point and the coordinates of the pupil center. The rotation angle around the visual axis is calculated based on the constraint that the rotation angle around the visual axis of the deviation between the optical axis and the visual axis is the same for the left eye and the right eye of the subject. .

また、本発明の回転角度算出プログラムは、コンピュータを、2台以上のカメラと、対象者に光を照射する光源と、を用いて対象者の顔画像を生成する顔画像生成手段、2台以上のカメラによるそれぞれの顔画像に基づいて、光源からの光の対象者の角膜上の反射点である角膜反射点の座標と、対象者の瞳孔の中心である瞳孔中心の座標と、を計算する座標計算手段、角膜反射点の座標及び瞳孔中心の座標に基づいて、対象者の眼球の中心軸である光軸の方向を計算する光軸方向計算手段、対象者の眼球の中心窩と対象者の注視点とを結ぶ直線を視軸として、対象者が一の姿勢をとった時の光軸と視軸のずれを角膜反射点の座標及び瞳孔中心の座標に基づいて計算するずれ計算手段、及び光軸と視軸とのずれの視軸回りの回転角が対象者の左眼と右眼とで同一であるという拘束条件に基づいて、視軸回りの回転角度を算出する回転角度算出手段、として機能させる。   In addition, the rotation angle calculation program of the present invention includes two or more face image generating means for generating a face image of a subject using two or more cameras and a light source that irradiates the subject with light. The coordinates of the corneal reflection point, which is the reflection point of the light from the light source on the subject's cornea, and the coordinates of the pupil center, which is the center of the subject's pupil, are calculated based on each face image from the camera Coordinate calculation means, optical axis direction calculation means for calculating the direction of the optical axis that is the central axis of the eyeball of the subject based on the coordinates of the cornea reflection point and the coordinates of the pupil center, the fovea of the eyeball of the subject and the subject A deviation calculating means for calculating a deviation between the optical axis and the visual axis when the subject takes one posture based on the coordinates of the corneal reflection point and the coordinates of the pupil center, with the straight line connecting the gazing point of And the rotation angle around the visual axis of the deviation between the optical axis and the visual axis is the subject's left And based on the constraint that is identical with the right eye, the rotation angle calculation means for calculating a rotation angle of the visual axis around to function as.

このような回転角度算出方法、回転角度算出装置、及び回転角度算出プログラムによれば、まず、角膜反射点の座標及び瞳孔中心の座標に基づいて、対象者の眼球の光軸の方向が計算される。また、対象者が一の姿勢をとった時の光軸と視軸とのずれが計算される。次に、光軸と視軸とのずれの視軸回りの回転角が対象者の左眼と右眼とで同一であるという拘束条件に基づいて、光軸と視軸とのずれの視軸回りの回転角度が算出される。このように、対象者の姿勢に応じて光軸と視軸とのずれの視軸回りの回転角度が算出されるため、対象者の姿勢によらず高精度に光軸と視軸とのずれの視軸回りの回転角度を算出することができる。   According to such a rotation angle calculation method, rotation angle calculation device, and rotation angle calculation program, first, the direction of the optical axis of the eyeball of the subject is calculated based on the coordinates of the corneal reflection point and the coordinates of the pupil center. The Also, the deviation between the optical axis and the visual axis when the subject takes one posture is calculated. Next, based on the constraint that the rotation angle around the visual axis of the deviation between the optical axis and the visual axis is the same for the left eye and the right eye of the subject, the visual axis of the deviation between the optical axis and the visual axis A rotation angle around is calculated. In this way, since the rotation angle around the visual axis of the deviation between the optical axis and the visual axis is calculated according to the posture of the subject, the deviation between the optical axis and the visual axis is highly accurate regardless of the orientation of the subject. The rotation angle around the visual axis can be calculated.

また、回転角度算出ステップでは、対象者の左眼の瞳孔の中心と右眼の瞳孔の中心とを結ぶ直線に平行な方向を第一方向とし、第一方向及びカメラの光軸の両方に垂直な方向を第二方向として、第二方向の成分を用いて視軸回りの回転角度を算出することが好ましい。   In the rotation angle calculation step, the direction parallel to the straight line connecting the center of the pupil of the left eye of the subject and the center of the pupil of the right eye is defined as the first direction, and is perpendicular to both the first direction and the optical axis of the camera. It is preferable to calculate the rotation angle around the visual axis by using the component in the second direction, with the correct direction as the second direction.

人間の目の性質として、左眼と右眼の視線の方向は、左眼と右眼とを結ぶ直線に平行な方向、すなわち第一方向に沿って近寄ったり離れたりすることがある一方で、第二方向に沿っては近寄ったり離れたりすることはない。このため、第二方向の成分を用いてずれを計算した場合には、例えば対象者の左眼と右眼の視線の方向が離れてしまった場合でも、左眼と右眼の視線の方向のずれの影響を受けにくい。したがって、対象者の左眼と右眼の視線の方向が離れてしまった場合の回転角度算出の精度を向上させることができる。   As a human eye property, the direction of the line of sight of the left eye and the right eye may be close to or away from the direction parallel to the straight line connecting the left eye and the right eye, that is, along the first direction, There is no approaching or leaving along the second direction. For this reason, when the shift is calculated using the component in the second direction, for example, even if the direction of the line of sight of the left eye and the right eye of the subject is separated, the direction of the line of sight of the left eye and the right eye Less susceptible to displacement. Therefore, it is possible to improve the accuracy of calculation of the rotation angle when the direction of the line of sight of the left eye and the right eye of the subject is separated.

また、本発明の注視点検出方法は、上記回転角度算出方法における光軸方向計算ステップで計算された光軸の方向を、上記の回転角度算出方法で算出された視軸回りの回転角度に基づいてずれを補正することにより視軸の方向を計算し、視軸の方向に基づいて対象者の注視点を検出する。   In the gaze point detection method of the present invention, the direction of the optical axis calculated in the optical axis direction calculation step in the rotation angle calculation method is based on the rotation angle around the visual axis calculated by the rotation angle calculation method. The direction of the visual axis is calculated by correcting the deviation, and the gaze point of the subject is detected based on the direction of the visual axis.

これにより、対象者の姿勢に応じて算出された回転角度に基づいて光軸と視軸とのずれが補正されるため、対象者の姿勢によらず高精度に対象者の注視点を検出することができる。   As a result, since the deviation between the optical axis and the visual axis is corrected based on the rotation angle calculated according to the posture of the subject, the gaze point of the subject can be detected with high accuracy regardless of the posture of the subject. be able to.

さらに、本発明の情報入力方法は、上記の注視点検出方法により対象者の両眼の注視点を検出する両眼注視点検出ステップと、両眼注視点検出ステップにおいて検出された対象者の両眼の注視点の間の距離及び距離が所定の範囲にある時間に基づいて、対象者による情報の入力がなされたと判定するステップと、を備える。   Furthermore, the information input method of the present invention includes both a binocular gazing point detection step for detecting the gazing point of both eyes of the subject by the gazing point detection method described above, and both of the subject detected in the binocular gazing point detection step. Determining that information has been input by the subject based on the distance between the gazing points of the eyes and the time within which the distance is within a predetermined range.

この情報入力方法によれば、対象者の両眼の注視点を検出し、検出された両眼の注視点の間の距離及びこの距離が所定の範囲にある時間に基づいて、対象者による情報の入力がなされたと判定する。ここで、一般的に、人間が何らかの情報の入力をしようと考えているときには、両眼の注視点のずれが小さくなる、すなわち両眼の注視点の間の距離が狭くなる傾向がある。一方、人間が何を入力しようかと迷っていたり、画面全体を見渡していたり、意識が散漫になっていたりするときには、両眼の注視点の間の距離は広くなる傾向がある。このため、上記の情報入力方法によれば、対象者が何らかの情報の入力をしようとしていることを適切に検出することができるため、対象者が効率よく入力操作を行うことができる。   According to this information input method, information on the subject's eyes is detected based on the distance between the eyes of the detected eyes and the time during which the distance is within a predetermined range. Is determined to have been entered. Here, in general, when a person wants to input some information, the shift of the gazing point of both eyes tends to be small, that is, the distance between the gazing points of both eyes tends to be narrow. On the other hand, when a person is wondering what to input, looking over the entire screen, or distracted, the distance between the gazing points of both eyes tends to increase. For this reason, according to said information input method, since it can detect appropriately that the subject is going to input some information, a subject can perform input operation efficiently.

本発明の注視点検出方法及び注視点検出装置によれば、対象者の姿勢にかかわらず高精度に注視点を検出することができる。   According to the gaze point detection method and the gaze point detection apparatus of the present invention, it is possible to detect a gaze point with high accuracy regardless of the posture of the subject.

本発明の好適な一実施形態にかかる注視点検出装置を示す斜視図である。It is a perspective view which shows the gazing point detection apparatus concerning suitable one Embodiment of this invention. 図1のカメラの開口に取り付けられた光源の平面図である。It is a top view of the light source attached to the opening of the camera of FIG. 図1の注視点検出装置で設定される座標系の位置関係を示す図である。It is a figure which shows the positional relationship of the coordinate system set with the gazing point detection apparatus of FIG. 図1の注視点検出装置による注視点検出手順を説明するための図である。It is a figure for demonstrating the gaze point detection procedure by the gaze point detection apparatus of FIG. 図1の注視点検出装置による注視点検出手順を説明するための図である。It is a figure for demonstrating the gaze point detection procedure by the gaze point detection apparatus of FIG. 光軸と視軸とのずれを示す斜視図である。It is a perspective view which shows the shift | offset | difference of an optical axis and a visual axis. 注視点及びカメラを仮想視点平面上に投影した図である。It is the figure which projected the gaze point and the camera on the virtual viewpoint plane. 角膜反射位置と瞳孔位置とを角膜反射−瞳孔ベクトル平面上に示す図である。It is a figure which shows a cornea reflection position and a pupil position on a cornea reflection-pupil vector plane. 図8の各ベクトルを説明のために平行移動した図である。It is the figure which translated each vector of FIG. 8 for description. 図9において対象者の頭部が回転した場合を示す図である。It is a figure which shows the case where a subject's head rotates in FIG. 対象者の頭部の回転による左右の瞳孔の回転を示す図である。It is a figure which shows rotation of the left and right pupil by rotation of a subject's head. 図10において、両眼の注視点が一致しない場合に対応する図である。In FIG. 10, it is a figure corresponding to the case where the gaze point of both eyes does not correspond. 補正前後における注視点検出誤差を示す図である。It is a figure which shows the fixation point detection error before and behind correction | amendment. 補正前後における注視点分布を示す図である。It is a figure which shows the gaze point distribution before and behind correction | amendment.

以下、図面を参照しつつ本発明に係る注視点検出方法及び注視点検出装置の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of a gaze point detection method and a gaze point detection apparatus according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.

(注視点検出装置の構成)
まず、本発明にかかる注視点検出装置を実施するための注視点検出装置の構成について、図面を参照しながら説明する。本発明の注視点検出装置は、対象者の顔画像を基にパーソナルコンピュータ等の情報処理端末のモニター画面上の注視点を検出する装置である。なお、この注視点検出装置は、回転角度算出装置としても機能する。
(Configuration of gaze point detection device)
First, the configuration of a gazing point detection apparatus for implementing the gazing point detection apparatus according to the present invention will be described with reference to the drawings. The gaze point detection device of the present invention is a device that detects a gaze point on a monitor screen of an information processing terminal such as a personal computer based on a face image of a subject. Note that this gaze point detection device also functions as a rotation angle calculation device.

図1は、本発明の好適な一実施形態である注視点検出装置1を示す斜視図である。同図に示すように、注視点検出装置1は、対象者Aの顔画像を撮像する2台のステレオカメラ2a,2bと、それぞれのステレオカメラ2a,2bの開口部の撮像レンズの外側に設けられた光源3a,3bと、光源3a,3bの給電用の発光回路(制御回路)4と、ステレオカメラ2a,2bに入力する同期信号を生成する同期信号発生器(制御回路)5と、同期信号を遅延させるための遅延回路(制御回路)6と、ステレオカメラ2a,2bの生成した画像信号を処理するパーソナルコンピュータ等の画像処理装置(画像処理部)7と、ステレオカメラ2a,2bの上方において対象者Aに対向するように配置され、画像処理装置7に接続されたディスプレイ装置8とを備えている。これらの発光回路4、同期信号発生器5、及び遅延回路6は、ステレオカメラ2a,2b及び光源3a,3bの動作を制御するための制御回路を構成する。   FIG. 1 is a perspective view showing a gazing point detection apparatus 1 which is a preferred embodiment of the present invention. As shown in the figure, the gazing point detection device 1 is provided outside the imaging lens of the two stereo cameras 2a and 2b that capture the face image of the subject A and the openings of the respective stereo cameras 2a and 2b. Light sources 3a and 3b, a light emitting circuit (control circuit) 4 for supplying power to the light sources 3a and 3b, a synchronization signal generator (control circuit) 5 for generating a synchronization signal to be input to the stereo cameras 2a and 2b, A delay circuit (control circuit) 6 for delaying the signal, an image processing device (image processing unit) 7 such as a personal computer for processing an image signal generated by the stereo cameras 2a and 2b, and the stereo cameras 2a and 2b The display device 8 is disposed so as to face the target person A and connected to the image processing device 7. The light emitting circuit 4, the synchronization signal generator 5, and the delay circuit 6 constitute a control circuit for controlling the operations of the stereo cameras 2a and 2b and the light sources 3a and 3b.

ステレオカメラ2a,2bは、対象者Aの顔面を撮像することによって画像データを生成する。このステレオカメラ2a,2bとしては、インターレーススキャン方式の1つであるNTSC方式のカメラを用いる。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと奇数フィールドを除く偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されて生成される。具体的には、1フレーム内では、奇数フィールドの画素ラインと偶数フィールドの画素ラインとが交互に並ぶように生成される。   The stereo cameras 2a and 2b generate image data by imaging the face of the subject A. As the stereo cameras 2a and 2b, NTSC system cameras which are one of interlace scan systems are used. In the NTSC system, one frame of image data obtained 30 frames per second is composed of an odd field composed of odd-numbered horizontal pixel lines and an even field composed of even-numbered horizontal pixel lines excluding odd fields. The odd field image and the even field image are alternately captured at 1/60 second intervals. Specifically, in one frame, the pixel lines in the odd field and the pixel lines in the even field are generated alternately.

この一方のステレオカメラ2aには、同期信号発生器5から垂直同期信号(VD信号)が入力され、他方のステレオカメラ2bには、同期信号発生器5から遅延回路6を経由して遅延された垂直同期信号(VD信号)が入力されることにより、2つのステレオカメラ2a,2bの撮影タイミングが互いにずらされる。   One stereo camera 2a receives a vertical synchronizing signal (VD signal) from the synchronizing signal generator 5, and the other stereo camera 2b is delayed from the synchronizing signal generator 5 via the delay circuit 6. When the vertical synchronization signal (VD signal) is input, the shooting timings of the two stereo cameras 2a and 2b are shifted from each other.

また、このステレオカメラ2a,2bの対物レンズが収容された円形状の開口部9a,9bの外側には、それぞれ、光源3a,3bが固定されている。図2には、光源3a,3bの平面図を示している。光源3a,3bは、対象者Aの顔に向けて照明光を照射するためのものであり、リング状の台座部10に2種類の発光素子11,12が複数埋め込まれた構造を有している。この発光素子11は、出力光の中心波長が850nmの半導体発光素子(LED)であり、台座部10上において開口部9a,9bの縁に沿って等間隔でリング状に配設されている。また、発光素子12は、出力光の中心波長が950nmの半導体発光素子であり、台座部10上において発光素子11の外側に隣接して等間隔にリング状に配設されている。すなわち、発光素子12のステレオカメラ2a,2bの光軸からの距離は、発光素子11の光軸からの距離よりも大きくなるように設定されている。このとき、それぞれの発光素子11,12は、ステレオカメラ2a,2bの光軸に沿って照明光を出射するように台座部10上に設けられている。   Further, light sources 3a and 3b are fixed to the outside of the circular openings 9a and 9b in which the objective lenses of the stereo cameras 2a and 2b are accommodated, respectively. FIG. 2 shows a plan view of the light sources 3a and 3b. The light sources 3a and 3b are for irradiating illumination light toward the face of the subject A, and have a structure in which a plurality of two types of light emitting elements 11 and 12 are embedded in a ring-shaped pedestal 10. Yes. The light emitting element 11 is a semiconductor light emitting element (LED) having a center wavelength of output light of 850 nm, and is arranged on the pedestal 10 in a ring shape at equal intervals along the edges of the openings 9a and 9b. The light emitting element 12 is a semiconductor light emitting element having a center wavelength of output light of 950 nm, and is arranged on the pedestal 10 adjacent to the outside of the light emitting element 11 in a ring shape at equal intervals. That is, the distance of the light emitting element 12 from the optical axis of the stereo cameras 2 a and 2 b is set to be larger than the distance from the optical axis of the light emitting element 11. At this time, each light emitting element 11 and 12 is provided on the base part 10 so that illumination light may be emitted along the optical axis of the stereo cameras 2a and 2b.

これらの発光素子11,12は、発光回路4によって、それぞれ独立に発光タイミングを制御可能にされる。具体的には、同期信号発生器5から出力されるVD信号に同期したステレオカメラ2a,2bのシャッタタイミングに合わせて、発光素子11,12が交互に発光するように、発光タイミングが制御される。   The light emitting elements 11 and 12 can be independently controlled in light emission timing by the light emitting circuit 4. Specifically, the light emission timing is controlled so that the light emitting elements 11 and 12 emit light alternately in accordance with the shutter timing of the stereo cameras 2a and 2b synchronized with the VD signal output from the synchronization signal generator 5. .

なお、ステレオカメラ2a,2bに代えて、3台以上のカメラを配置し、そのうちの2台を使用するようにしてもよい。すなわち、注視点検出装置は、2台以上のカメラを備えていればよい。   Instead of the stereo cameras 2a and 2b, three or more cameras may be arranged and two of them may be used. That is, the gazing point detection device only needs to include two or more cameras.

このような制御回路の動作により、光源3aの発光素子11から対象者Aの左右の眼球Bに照明光が照射されると、眼球Bにおいて明瞳孔像が生成され、発光素子12から眼球Bに照明光が照射されると、眼球Bにおいて暗瞳孔像が生成される。これは、波長が900nmより短い照明光を受ける場合は、波長が900nmより長い照明光を受ける場合に比較して瞳孔が明るく映る、眼球Bへの照明光がカメラの光軸からより離れた位置から入射した場合は瞳孔がより暗く映るという性質によるものである。その結果、ステレオカメラ2a,2bの生成する奇数フィールド及び偶数フィールドには、それぞれ、眼球Bの明瞳孔画像及び暗瞳孔画像が反映される。   By such operation of the control circuit, when illumination light is irradiated from the light emitting element 11 of the light source 3a to the left and right eyeballs B of the subject A, a bright pupil image is generated in the eyeball B, and the light emitting element 12 moves to the eyeball B. When the illumination light is irradiated, a dark pupil image is generated in the eyeball B. This is because when the illumination light having a wavelength shorter than 900 nm is received, the pupil appears brighter than when the illumination light having a wavelength longer than 900 nm is received, and the illumination light to the eyeball B is further away from the optical axis of the camera. This is due to the nature of the pupil appearing darker when the light enters from. As a result, the bright and dark pupil images of the eyeball B are reflected in the odd and even fields generated by the stereo cameras 2a and 2b, respectively.

画像処理装置7は、2台のステレオカメラ2a,2bから出力された画像データを処理する。具体的には、画像処理装置7は、ステレオカメラ2a,2bから出力された1フレームの画像データを、奇数フィールドと偶数フィールドとに分離する。例えば、この奇数フィールドの画像データ(奇数画像データ)は明瞳孔画像となっており、偶数フィールドの画像データ(偶数画像データ)は暗瞳孔画像となっている。これらの画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像処理装置7は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像データ及び暗瞳孔画像データを生成する。   The image processing device 7 processes the image data output from the two stereo cameras 2a and 2b. Specifically, the image processing device 7 separates one frame of image data output from the stereo cameras 2a and 2b into an odd field and an even field. For example, this odd field image data (odd image data) is a bright pupil image, and even field image data (even image data) is a dark pupil image. Since these image data have effective pixels only in the odd field or even field, the image processing device 7 embeds the luminance average of the pixel lines of the adjacent effective pixels in the pixel values between the lines. Bright pupil image data and dark pupil image data are generated.

また、画像処理装置7は、明瞳孔画像データ及び暗瞳孔画像データを対象にして、対象者Aの左右の角膜反射点の位置も検出する。すなわち、検出した瞳孔を中心としたウィンドウを設定し、そのウィンドウ範囲のみを高分解像度化した画像データを作成し、その画像データから角膜反射を検出する。具体的には、Pタイル法によって2値化の閾値を決定し、その画像から2値化画像を作成し、ラベリングを行い、面積が一定以下である部分を選択する。ここで、画像処理装置7は、選択した部分の中心座標に対し、分離度フィルタを与え、分離度と輝度とを掛けた特徴量を求め、その値が一定値以下であれば角膜反射ではないと判断する。さらに、画像処理装置7は、明瞳孔画像データと暗瞳孔画像データにおいて、角膜反射の移動量を計算し、その移動量を差分位置補正量とする。そして、画像処理装置7は、明瞳孔画像データ及び暗瞳孔画像データの角膜反射位置が一致するように差分位置補正量分だけずらし、画像データの輝度を足し算し、輝度重心座標を角膜反射の座標と決定する。   The image processing device 7 also detects the positions of the left and right corneal reflection points of the subject A with respect to the bright pupil image data and the dark pupil image data. That is, a window centered on the detected pupil is set, image data in which only the window range is increased in resolution is created, and corneal reflection is detected from the image data. Specifically, a threshold value for binarization is determined by the P tile method, a binarized image is created from the image, labeling is performed, and a portion whose area is not more than a certain value is selected. Here, the image processing device 7 gives a separability filter to the center coordinates of the selected portion, obtains a feature amount obtained by multiplying the separability and the luminance, and if the value is equal to or less than a certain value, it is not corneal reflection. Judge. Further, the image processing device 7 calculates the movement amount of the corneal reflection in the bright pupil image data and the dark pupil image data, and sets the movement amount as the difference position correction amount. The image processing device 7 shifts the difference position correction amount so that the corneal reflection positions of the bright pupil image data and the dark pupil image data coincide with each other, adds the luminance of the image data, and sets the luminance centroid coordinates to the corneal reflection coordinates. And decide.

さらに、画像処理装置7は、2台のステレオカメラ2a,2bから出力された画像データを元に検出した瞳孔中心座標から、対象者Aの左右の瞳孔の3次元位置を計算する。この際、画像処理装置7は、ステレオ法によって左右の瞳孔の3次元座標を計測する。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに画像中の点の座標を基に、内部パラメータ及び外部パラメータを用いてその点の空間上の位置を決定する方法である。   Further, the image processing device 7 calculates the three-dimensional positions of the left and right pupils of the subject A from the pupil center coordinates detected based on the image data output from the two stereo cameras 2a and 2b. At this time, the image processing device 7 measures the three-dimensional coordinates of the left and right pupils by a stereo method. The stereo method measures the internal parameters such as the focal length of the camera lens, image center, and pixel size, and external parameters such as the camera position and orientation in advance, and shoots the object using multiple stereo cameras. In some cases, the position of a point in space is determined using the internal and external parameters based on the coordinates of the point in the image.

なお、画像処理装置7がステレオ法を用いて瞳孔の3次元座標を計算する際には、図3に示すような座標系を用いる。同図に示す世界座標系(X,Y,Z)は、2台のステレオカメラ2a,2bで共有する原点Oが例えばディスプレイ装置8の画面中央に位置する座標系であり、カメラ座標系(X,Y,Z)は、その原点Cがステレオカメラ2a,2bの光学中心とされ、Z軸が光学中心から画像面に垂直に引いた光軸と平行とされた座標系であり、画像座標系(X,Y)は、撮像素子が置かれる画像面に沿ってXY平面と平行にされ、光軸と画像面の交点(画像中心)を原点Ciとする座標系である。点Pが目標点の座標とすると、ステレオカメラ2a,2bを用いた際の画像座標系への投影点(X,Y)は、画像のゆがみにより理想的な投影点(X,Y)からずれることになる。従って、ステレオ法を用いた3次元位置計測を精度良く行うためには、目標点Pの世界座標とその画像座標の対応づけを記録したキャリブレーションデータを予め取得する必要がある。例えば、このようなキャリブレーションデータとしては、外部パラメータとしての世界座標に対するカメラ座標系の平行移動ベクトル及び世界座標系に対するカメラ座標系の回転行列や、内部パラメータとしての焦点距離、画像中心座標、スケール係数、レンズひずみ係数、撮像素子間隔等が予め取得されて、画像処理装置7に記憶される。 When the image processing device 7 calculates the three-dimensional coordinates of the pupil using the stereo method, a coordinate system as shown in FIG. 3 is used. World coordinate system shown in FIG. (X W, Y W, Z W) is two stereo cameras 2a, the coordinate system origin O W is positioned for example at the center of the screen of the display unit 8 to be shared by 2b, a camera The coordinate system (X, Y, Z) is a coordinate system in which the origin C is the optical center of the stereo cameras 2a, 2b, and the Z axis is parallel to the optical axis drawn perpendicularly to the image plane from the optical center. The image coordinate system (X G , Y G ) is a coordinate system that is parallel to the XY plane along the image plane on which the image sensor is placed, and has an intersection Ci (image center) between the optical axis and the image plane as the origin Ci. . When the point P is the coordinates of the target point, the projection point (X d , Y d ) on the image coordinate system when using the stereo cameras 2a, 2b is an ideal projection point (X u , Y) due to image distortion. u ). Therefore, in order to accurately perform the three-dimensional position measurement using the stereo method, it is necessary to previously acquire calibration data in which the correspondence between the world coordinates of the target point P and the image coordinates is recorded. For example, as such calibration data, the translation vector of the camera coordinate system with respect to the world coordinates as external parameters and the rotation matrix of the camera coordinate system with respect to the world coordinate system, the focal length as the internal parameters, the image center coordinates, the scale A coefficient, a lens distortion coefficient, an image sensor interval, and the like are acquired in advance and stored in the image processing device 7.

そして、画像処理装置7は、2台のステレオカメラ2a,2bからの出力データを元に検出した画像座標系における瞳孔中心座標と、世界座標系における瞳孔中心座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、画像処理装置7は、2つの関係式から対象者Aの瞳孔の世界座標系における3次元位置座標を求める。同様にして、画像処理装置7は、対象者Aの左右の瞳孔の3次元位置を求めることができる。   Then, the image processing device 7 calculates a relational expression between the pupil center coordinates in the image coordinate system detected based on the output data from the two stereo cameras 2a and 2b and the pupil center coordinates in the world coordinate system as calibration data. Get while referring to. Next, the image processing device 7 obtains the three-dimensional position coordinates in the world coordinate system of the pupil of the subject A from the two relational expressions. Similarly, the image processing apparatus 7 can obtain the three-dimensional positions of the left and right pupils of the subject A.

また、画像処理装置7は、検出した対象者Aの左右の角膜反射点の位置、及び左右の瞳孔中心の位置を用いて、ディスプレイ装置8上の対象者の注視点を検出する。以下に、図4及び図5を参照しながら、画像処理装置7による注視点の検出手順について説明する。この注視点の検出手順は、本実施形態の注視点検出方法を行うための前提である。   Further, the image processing device 7 detects the gaze point of the subject on the display device 8 using the detected positions of the left and right corneal reflection points of the subject A and the positions of the left and right pupil centers. Hereinafter, a gaze point detection procedure by the image processing apparatus 7 will be described with reference to FIGS. 4 and 5. This gaze point detection procedure is a premise for performing the gaze point detection method of the present embodiment.

(注視点検出手順)
ここでは、図4に示すように、検出した瞳孔の3次元位置Pを元に、ステレオカメラ2a,2bの開口部9a,9bの中心を原点Oとし、その原点Oと瞳孔中心Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を設定する。ここで、X’軸は、世界座標系のX−Y平面と仮想視点平面X’−Y’との交線に相当する。
(Gaze point detection procedure)
Here, as shown in FIG. 4, based on the detected three-dimensional position P of the pupil, the center of the openings 9a and 9b of the stereo cameras 2a and 2b is set as the origin O, and the reference connecting the origin O and the pupil center P is used. A virtual viewpoint plane X′-Y ′ having the line OP as a normal is set. Here, the X ′ axis corresponds to a line of intersection between the X W -Y W plane of the world coordinate system and the virtual viewpoint plane X′-Y ′.

まず、画像処理装置7は、画像面Sにおける角膜反射点Gから瞳孔中心Pまでのベクトルrを算出する。そして、ベクトルrを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルr’に変換する。このとき、各ステレオカメラ2a,2bをピンホールモデルと考え、角膜反射点Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定している。つまり、画像処理装置7は、仮想視点平面と平行であって瞳孔中心Pの3次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標をベクトルr’として算出しており、このベクトルr’は角膜反射点Gから瞳孔中心Pまでの実距離を表す。 First, the image processing device 7 calculates a vector r G from the corneal reflection point G to the pupil center P on the image plane S G. Then, the vector r G is converted into a vector r ′ converted to the actual size by using the magnification of the camera obtained from the distance OP. At this time, each stereo camera 2a, 2b is considered as a pinhole model, and it is assumed that the corneal reflection point G and the pupil center P are on a plane parallel to the virtual viewpoint plane X′-Y ′. That is, the image processing device 7 calculates the relative coordinate between the pupil center P and the corneal reflection point G as a vector r ′ on a plane parallel to the virtual viewpoint plane and including the three-dimensional coordinates of the pupil center P. This vector r ′ represents the actual distance from the corneal reflection point G to the pupil center P.

その後、画像処理装置7は、対象者Aの仮想視点平面上の注視点Tに関して、直線OTの水平軸X’に対する角度φを、ベクトルrの画像面上の水平軸Xに対する角度φ’と等しいとして求める。さらに、画像処理装置7は、対象者Aの視線ベクトル、すなわち、瞳孔中心Pと注視点Tを結ぶベクトルPTと、基準線OPとの成す角度θを、ゲイン値k及び原点補正ベクトル(オフセットベクトル)rを含むパラメータを使った関数fを用いて、下記式(1);

Figure 2015169959

によって計算する。ここで、ベクトルr’は、角膜反射点Gから瞳孔中心Pに向かう瞳孔ベクトルの実測値を表す。 Thereafter, the image processing apparatus 7 regards the angle φ with respect to the horizontal axis X ′ of the straight line OT with respect to the gazing point T on the virtual viewpoint plane of the subject A as the angle φ ′ with respect to the horizontal axis X G on the image plane of the vector r. Find as equal. Further, the image processing apparatus 7 uses the gain value k and the origin correction vector (offset vector) as the angle θ formed between the reference line OP and the line of sight vector of the subject A, that is, the vector PT connecting the pupil center P and the gazing point T. ) Using the function f 1 using parameters including r 0 , the following formula (1);
Figure 2015169959

Calculate by Here, the vector r ′ represents an actual measurement value of the pupil vector from the corneal reflection point G toward the pupil center P.

このような角度φ,θの計算は、瞳孔中心Pの存在する平面上のベクトルr(=r’−r)を仮想視点平面上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われている。より詳しくは、対象者Aの視線PTの基準線OPに対する角度θは、瞳孔中心と角膜反射の距離の修正値|r’−r|との間で線形関係を有すると仮定している。なお、関数fに含まれる原点補正ベクトルrには、対象者Aがカメラを見たとき(θ=0)の実寸の角膜反射−瞳孔中心間のベクトルが零ではないために、この角膜反射−瞳孔中心間のベクトルとして、ベクトルrが設定される。ここで、上記ゲイン値k及び原点補正ベクトルrは、各対象者Aや左右の眼球によって異なるため較正を行う必要がある。そこで、ゲイン値k及び原点補正ベクトルrは予め設定された初期値に対して後述するパラメータ補正処理によって補正された値が使用される。 Such calculation of the angles φ and θ is such that an enlarged vector r (= r′−r 0 ) on the plane where the pupil center P exists corresponds to the gaze point of the subject A as it is. It is done by considering. More specifically, it is assumed that the angle θ of the visual line PT of the subject A with respect to the reference line OP has a linear relationship between the pupil center and the correction value | r′−r 0 | of the corneal reflection distance. Note that the origin correction vector r 0 included in the function f 1 includes the cornea reflection-pupil center vector when the subject A looks at the camera (θ = 0) because the vector is not zero. A vector r 0 is set as a vector between the reflection and the pupil center. Here, the gain value k and the origin correction vector r 0 need to be calibrated because they differ depending on each subject A and the left and right eyeballs. Therefore, as the gain value k and the origin correction vector r 0, values corrected by parameter correction processing described later with respect to preset initial values are used.

さらに、画像処理装置7は、2台のステレオカメラ2a,2bのカメラ画像に対応して計算された角度φ,θであるφ,φ,θ,θを参照して、対象者Aのディスプレイ装置8の画面上の注視点を検出する。ここで、注視点検出のメカニズムを説明するために図5に示すような座標系を定義する。2台のステレオカメラ2b,2aの位置に対応した原点O’,O’を有する2つの仮想視点平面H,Hと、瞳孔中心Pを中心とした半径を任意とした仮想視点球面Sを定義する。2つの仮想視点平面H,Hは、それぞれ、直線PO’,PO’に対して垂直な平面である。そして、瞳孔中心Pとディスプレイ画面上の注視点Qを通る直線(視線)と仮想視点球面Sとの交点をG、瞳孔中心Pと原点O’を通る直線と仮想視点球面Sとの交点をO、瞳孔中心Pと原点O’を通る直線と仮想視点球面Sとの交点をOとする。なお、視線PQと仮想視点平面Hとの交点をGとすると、直線O’Gと仮想視点平面Hとの水平軸の成す角がφとなる。同様に、視線PQと仮想視点平面Hとの交点をGとすると、直線O’Gと仮想視点平面Hとの水平軸の成す角がφとなる。さらに、仮想視点球面S上において、点Oにおける点Oを通る水平面と球面Sとの交線(曲線)と曲線Oの成す角は、上記角度φと等しくなる。同様に、仮想視点球面S上において、点Oにおける点Oを通る水平面と仮想視点球面Sとの交線(曲線)と曲線Oの成す角は、上記角度φと等しくなる。また、上述したように、点P,O,O’は同じ直線L上に存在し、点P,O,O’は同じ直線L上に存在するので、直線Lと視線の成す角がθとなり、直線Lと視線の成す角がθとなる。 Further, the image processing device 7 refers to the φ 1 , φ 2 , θ 1 , and θ 2 that are the angles φ and θ calculated corresponding to the camera images of the two stereo cameras 2 a and 2 b, and A gazing point on the screen of the display device 8 of A is detected. Here, in order to explain the mechanism of gaze point detection, a coordinate system as shown in FIG. 5 is defined. Two virtual viewpoint planes H 1 and H 2 having origins O 1 ′ and O 2 ′ corresponding to the positions of the two stereo cameras 2b and 2a, and a virtual viewpoint spherical surface with an arbitrary radius around the pupil center P Define S. The two virtual viewpoint planes H 1 and H 2 are planes perpendicular to the straight lines PO 1 ′ and PO 2 ′, respectively. The intersection of the intersection of the virtual viewpoint sphere S and a straight line (line of sight) passing through the fixation point Q on the pupil center P and the display screen and a straight line passing through the G S, pupil center P and the origin O 1 'and the virtual viewpoint sphere S O 1 , and the intersection of the virtual viewpoint spherical surface S and the straight line passing through the pupil center P and the origin O 2 ′ is O 2 . If the intersection of the line of sight PQ and the virtual viewpoint plane H 1 is G 1 , the angle formed by the horizontal axis of the straight line O 1 ′ G 1 and the virtual viewpoint plane H 1 is φ 1 . Similarly, when the intersection of the virtual viewpoint plane between H 2 sight PQ and G 2, angle between the horizontal axis and the straight line O 2 'G 2 and the virtual viewpoint plane H 2 is phi 2. Further, on the virtual viewpoint sphere S, the angle formed line of intersection between the horizontal plane and the sphere S passing through the point O 1 at the point O 1 (curve) of the curve O 1 G S is equal to the angle phi 1. Similarly, the angle formed on the virtual viewpoint sphere S, the line of intersection of the horizontal plane passing through the point O 2 at the point O 2 and the virtual viewpoint sphere S (curve) of the curve O 2 G S is equal to the angle phi 2 . As described above, the point P, O 1, O 1 'is present on the same straight line L 1, the point P, O 2, O 2' so are present on the same straight line L 2, the straight line L 1 The angle formed by the line of sight is θ 1 , and the angle formed by the straight line L 2 and the line of sight is θ 2 .

画像処理装置7は、上記のような関係を用いることにより、予め既知である原点O’,O’の位置座標、及びディスプレイ装置8の位置及び向きのデータを参照しながら、画面上の注視点を算出することができる。すなわち、2台のステレオカメラ2a,2bのカメラ画像によって計算された角度φ,φ,θ,θから、仮想視点球面S上の点G,O,Oの相対的位置関係を取得することができる。従って、画像処理装置7は、既知である原点O’,O’の座標と、既に計算された瞳孔中心Pの座標から、一意に視線PGを求めることができ、その視線PGとディスプレイ装置8の画面との交点を計算することにより注視点Qを検出することができる。なお、角度φ,θから求められる視線PGと、角度φ,θから求められる視線PGがずれている場合にはそれらを平均したものを最終的な視線ベクトルとして計算することもできる。 The image processing apparatus 7 uses the relationship as described above to refer to the position coordinates of the origins O 1 ′ and O 2 ′ known in advance and the position and orientation data of the display device 8 on the screen. A gaze point can be calculated. That is, the relative positions of the points G S , O 1 and O 2 on the virtual viewpoint spherical surface S from the angles φ 1 , φ 2 , θ 1 and θ 2 calculated from the camera images of the two stereo cameras 2a and 2b. Relationships can be acquired. Accordingly, the image processing apparatus 7 is a known origin O 1 ', O 2' and coordinates, from an already calculated pupil center P of coordinates, uniquely able to determine the line of sight PG S, and the line of sight PG S The gazing point Q can be detected by calculating the intersection with the screen of the display device 8. The angle phi 1, a sight PG S obtained from theta 1, the angle phi 2, when the line of sight is determined from theta 2 PG S is misaligned calculating an average of the them as the final gaze vector You can also.

ここで、画像処理装置7が視線方向の計算に用いる関数fには、パラメータとしてゲイン値k及び原点補正ベクトルrが含まれている。このゲイン値kは、上記式(1)を見ても分かるように、角膜反射−瞳孔中心ベクトルr’を調整後のベクトルr=r’−rの大きさと視線方向を示す角度θが線形関係にあると仮定して、そのベクトルrから角度θを求める時に使用する倍率である。理想的には、角度θとベクトル|r’|とが線形関係にあれば、ゲイン値kさえ求まれば角度θが計算できるはずである。言い換えれば角度θ=0のとき、つまり対象者Aがカメラを注視したときはベクトル|r’|=0になるはずである。しかしながら、実際には眼球の視軸(視線)と光軸とは一致せず、角度θ=0のときベクトル|r’|≠0となる。さらに、対象者Aが変われば角度θ=0のときのベクトル|r|は異なる。なお、眼球の視軸とは、対象者の眼球の中心窩と対象者の注視点とを結ぶ直線である。 Here, the function f 1 used by the image processing device 7 for calculating the line-of-sight direction includes a gain value k and an origin correction vector r 0 as parameters. As can be seen from the above equation (1), the gain value k is linear in the magnitude of the vector r = r′−r 0 after adjusting the cornea reflection-pupil center vector r ′ and the angle θ indicating the line-of-sight direction. It is a magnification used when an angle θ is obtained from the vector r assuming that there is a relationship. Ideally, if the angle θ and the vector | r ′ | have a linear relationship, the angle θ should be able to be calculated if only the gain value k is obtained. In other words, when the angle θ = 0, that is, when the subject A gazes at the camera, the vector | r ′ | = 0. However, in reality, the visual axis (line of sight) of the eyeball does not coincide with the optical axis, and the vector | r ′ | ≠ 0 when the angle θ = 0. Further, if the subject A changes, the vector | r | at the angle θ = 0 is different. The visual axis of the eyeball is a straight line that connects the fovea of the subject's eyeball and the subject's gaze point.

以下、k及びベクトルrの求め方について説明する。式(1)より、ベクトルθ,θは、以下の式でそれぞれ表される。

Figure 2015169959

Figure 2015169959
Hereinafter, a method for obtaining k and the vector r 0 will be described. From the equation (1), the vectors θ 1 and θ 2 are respectively expressed by the following equations.
Figure 2015169959

Figure 2015169959

なお、式(2)及び(3)において、原点補正ベクトルrは、個々の眼球において一意に決定されるため、カメラに関係なくrとした。また、2台のカメラの間隔は角度で表され、次式(4)で定義できる。

Figure 2015169959
In equations (2) and (3), the origin correction vector r 0 is uniquely determined for each eyeball, and thus is set to r 0 regardless of the camera. The interval between the two cameras is represented by an angle and can be defined by the following equation (4).
Figure 2015169959

式(2)〜(4)から、次式(5)が得られ、式(3)の係数k(較正値)が算出される。

Figure 2015169959
From the equations (2) to (4), the following equation (5) is obtained, and the coefficient k (calibration value) of the equation (3) is calculated.
Figure 2015169959

ここで、2台のカメラの位置は既知であるから、式(5)における∠OPOは常に既知である。すなわち、対象者が特定の位置を注視しなくても、各カメラにおいて実測されるベクトルr’から係数kを算出することができる。 Here, since the positions of the two cameras are known, ∠O 1 PO 2 in equation (5) is always known. That is, the coefficient k can be calculated from the vector r ′ that is actually measured in each camera without the subject looking at a specific position.

さらに、画像処理装置7は、1点較正法により、原点補正ベクトルrを求める。1点較正法による原点補正ベクトルrの求め方は、具体的には次の通りである。まず、画像処理装置7は、ディスプレイ装置8の表示画面上の任意の位置に1点の視標(規定点)を表示させて、対象者Aに当該視標を注視させる。この状態で、画像処理装置7は、投影仮想視点平面上の注視点を検出する。次に、画像処理装置7は、検出した注視点と視標の座標を投影仮想視点平面上に投影した点との差分を補正量として算出する。そして、画像処理装置7は、この補正量に基づいて原点補正ベクトルrを決定する。これにより、画像処理装置7は、式(1)による高精度な注視点検出を行うことができる。 Further, the image processing device 7 obtains an origin correction vector r 0 by a one-point calibration method. The method for obtaining the origin correction vector r 0 by the one-point calibration method is specifically as follows. First, the image processing apparatus 7 displays one target (specified point) at an arbitrary position on the display screen of the display device 8 and causes the subject A to gaze at the target. In this state, the image processing device 7 detects a gazing point on the projection virtual viewpoint plane. Next, the image processing apparatus 7 calculates the difference between the detected gazing point and the point at which the coordinates of the target are projected on the projection virtual viewpoint plane as a correction amount. Then, the image processing device 7 determines an origin correction vector r 0 based on this correction amount. Thereby, the image processing apparatus 7 can perform high-precision gazing point detection according to Expression (1).

(頭部側屈による注視点検出誤差補正法)
上述した注視点検出手順において用いられる原点補正ベクトルrは、対象者が一の姿勢をとった場合において定まるベクトルであり、対象者の姿勢が変化した場合、特に対象者が頭部を側屈させた場合においては、原点補正ベクトルrの方向が変化する。そこで、本実施形態の注視点検出方法では、画像処理装置7は、対象者の頭部側屈に応じて、原点補正ベクトルrを補正する。
(Gaze point detection error correction method by head side bending)
The origin correction vector r 0 used in the above-described gazing point detection procedure is a vector that is determined when the subject takes one posture, and when the subject's posture changes, the subject particularly bends the head. in the case where is, the direction of the origin correction vector r 0 is changed. Therefore, in the gazing point detection method of the present embodiment, the image processing device 7 corrects the origin correction vector r 0 according to the subject's head side bending.

以下、図6を参照して、対象者の頭部側屈による注視点の誤差を補正する方法について説明する。図6において、1台のカメラO’により、対象者Aの左眼及び右眼の瞳孔中心P及びPが撮影されている。両瞳孔は視対象平面上の注視点Qを注視しており、両眼の視軸と視対象平面との交点は、注視点Qで一致している。一般的に、視軸と光軸との間にはずれが存在するため、光軸と視対象平面との交点は、注視点Qとは異なった位置に検出される。図6では、対象者Aの左右の眼球の光軸を破線の矢印で示している。カメラ−瞳孔ベクトルPO’,PO’と左右の視線ベクトルPQ,PQとのなす角は、それぞれ角度ベクトルθ及びθで表される。 Hereinafter, with reference to FIG. 6, a method for correcting the error of the gaze point due to the subject's head side bending will be described. 6, the one camera O ', the pupil center P L and P R of the left and right eyes of a subject A is captured. Both pupils are gazing at the gazing point Q on the viewing plane, and the intersection of the visual axis of both eyes and the viewing plane is coincident with the gazing point Q. In general, since there is a deviation between the visual axis and the optical axis, the intersection of the optical axis and the plane to be viewed is detected at a position different from the gazing point Q. In FIG. 6, the optical axes of the left and right eyeballs of the subject A are indicated by broken arrows. The angles formed by the camera-pupil vectors P L O ′ and P R O ′ and the left and right line-of-sight vectors P L Q and P R Q are represented by angle vectors θ L and θ R , respectively.

図7は、左眼及び右眼のそれぞれについてのベクトルO’Qを一の平面上に表したものである。眼球の視軸と光軸との間にずれが存在しない場合、世界座標系において、θ(=k)及びθ(=k)は、カメラO’から注視点方向に向かう角度ベクトルとして表現される。言い換えれば、瞳孔中心P,Pから見た場合の、カメラO’と注視点Qとの間の角度は、角度θ,θとして検出される。しかしながら、実際には、視軸と光軸とのずれが存在するため、実際に検出されるのは、瞳孔中心P,Pから見た場合の、カメラO’の方向と光軸方向とがなす角度である。この角度は、ベクトルkr’及びkr’として検出される。そこで、検出されたベクトルkr’及びkr’から原点補正ベクトルr0L及びr0Rに係数(k,k)を乗じたベクトルを減算することによって、注視点検出を行う。 FIG. 7 shows the vector O′Q for the left eye and the right eye on one plane. When there is no deviation between the visual axis of the eyeball and the optical axis, θ L (= k L r L ) and θ R (= k R r R ) are in the gazing point direction from the camera O ′ in the world coordinate system. It is expressed as an angle vector toward. In other words, the pupil center P L, when viewed from the P R, the angle between the camera O 'and the fixation point Q is the angle theta L, is detected as theta R. However, in practice, since the deviation between the visual axis and the optical axis is present, it is actually detected, the pupil center P L, when viewed from the P R, and the optical axis direction of the camera O ' Is the angle formed by This angle is detected as vectors k L r ′ L and k R r ′ R. Therefore, gaze point detection is performed by subtracting a vector obtained by multiplying the origin correction vectors r 0L and r 0R by the coefficients (k L , k R ) from the detected vectors k L r ′ L and k R r ′ R. .

ここで、式(1)から、k・r=k(r’−r)であるが、この両辺を共通のゲイン値kで除することで、r=r’−rとなる。したがって、図7に示した世界座標系における関係を、角膜反射−瞳孔ベクトルr平面上での関係として置き換えることができる。さらに、係数k及びkがほぼ同じ値であると仮定し、図7に示した各ベクトルをk又はkで除すると、図8に示すように、各ベクトルを角膜反射−瞳孔ベクトル平面上に表現することができる。図8の表現は、各ベクトルの最も簡単な表現である。図8では、視軸と光軸とのずれによって、角膜反射が本来の位置からずれた位置に検出されている。このようにずれた位置に検出された角膜反射を、原点補正ベクトルr0L,r0Rによって補正している。 Here, from Equation (1), k · r = k (r′−r 0 ). By dividing both sides by a common gain value k, r = r′−r 0 is obtained. Therefore, the relationship in the world coordinate system shown in FIG. 7 can be replaced with the relationship on the corneal reflection-pupil vector r plane. Further, assuming that the coefficients k L and k R are substantially the same value, and dividing each vector shown in FIG. 7 by k L or k R , as shown in FIG. 8, each vector is converted into a corneal reflection-pupil vector. It can be expressed on a plane. The representation of FIG. 8 is the simplest representation of each vector. In FIG. 8, the corneal reflection is detected at a position shifted from the original position due to the shift between the visual axis and the optical axis. The corneal reflection detected at such a shifted position is corrected by the origin correction vectors r 0L and r 0R .

次に、説明の便宜のために、図8の原点補正ベクトルr0L,r0Rの始点をベクトルr,rの終点に平行移動させたものを図9に示す。また、図6における角度ベクトルθ及びθは、同一の注視点Qに向かうため、ベクトルの終点は一致する。したがって、θ,θを係数k,kで除したベクトルであるr及びrについても、終点は一致すると考えられる。そこで、図9においては、ベクトルr及びrの終点が一致するように、両眼の各ベクトルを平行移動させている。 Next, for convenience of explanation, FIG. 9 shows the translation of the starting points of the origin correction vectors r 0L and r 0R in FIG. 8 to the end points of the vectors r L and r R. The angle vector theta L and theta R in FIG. 6, in order to go to the same fixation point Q, the end point of the vector coincide. Therefore, it is considered that the end points of r L and r R , which are vectors obtained by dividing θ L and θ R by the coefficients k L and k R , are the same. Therefore, in FIG. 9, as the end point of the vector r L and r R are identical, they are moved parallel to each vector of both eyes.

一般に、対象者の頭部が左右に傾くと、その傾きを補償する、眼球の視軸回りの回転が生じる。この回転は、回旋運動と呼ばれる。回旋運動は、ゴーグル型の装置で計測されることが多く、一般的に、回旋運動は頭部に対する視軸回りの回転角として計測される。しかし、本明細書では、回旋運動の角度は、頭部に対してではなく、世界座標系での回転の角度を意味する。   In general, when the subject's head tilts left and right, rotation about the visual axis of the eyeball that compensates for the tilt occurs. This rotation is called a rotational motion. The rotational movement is often measured by a goggle-type device, and in general, the rotational movement is measured as a rotation angle around the visual axis with respect to the head. However, in this specification, the angle of the rotational movement means the angle of rotation in the world coordinate system, not relative to the head.

いま、対象者の頭部が左方向に角度γだけ倒れたときに、両方の眼球が視軸回りに角度γだけ回転したとすると、それに伴って原点補正ベクトルr0L及びr0Rがそれぞれ角度γだけ回転する。この様子を図10に示す。 Now, when the subject's head is tilted to the left by an angle γ H , assuming that both eyeballs rotate about the visual axis by an angle γ, the origin correction vectors r 0L and r 0R are Rotate by γ. This is shown in FIG.

図10において、点Gは、対象者の注視点に相当するr平面上の点を表す。以下、単に注視点と呼ぶ。点a,aは、原点補正ベクトルr0L,r0Rが角度γだけ回転したことを考慮しない場合に、ベクトルr’,r’の終点となる点である。点a’,a’は、実際に検出されるベクトルr’,r’の終点である。点g,gは、原点補正ベクトルr0L,r0Rが角度γだけ回転したことを考慮せずに、点a’,a’を原点補正ベクトルr0L,r0Rと逆方向に移動した点である。すなわち、点g,gは、原点補正ベクトルr0L,r0Rが角度γだけ回転したことを考慮しない場合に注視点として計算される点である。 In FIG. 10, a point G represents a point on the r plane corresponding to the subject's gaze point. Hereinafter, this is simply referred to as a gaze point. The points a L and a R are the end points of the vectors r ′ L and r ′ R when the origin correction vectors r 0L and r 0R are not considered to have been rotated by the angle γ. Points a ′ L and a ′ R are the end points of the vectors r ′ L and r ′ R that are actually detected. The points g L and g R do not take into account that the origin correction vectors r 0L and r 0R have been rotated by an angle γ, and the points a ′ L and a ′ R are in the opposite direction to the origin correction vectors r 0L and r 0R. It is a point that has moved. That is, the points g L and g R are points calculated as gazing points when it is not considered that the origin correction vectors r 0L and r 0R are rotated by the angle γ.

ここで、原点補正ベクトルrの方向は、視軸と光軸との間のずれ方向を反映していると仮定できるため、視軸回りの回転に伴って、rはその大きさを変えずに回転するはずである。眼球を大きく拡大して撮影する場合には、瞳孔中心を原点とする楕円状の虹彩像の明暗を利用して視軸回りの眼球回転角度を直接的に計測する方法がある。しかしながら、カメラで取得できる画像の画質によっては、そのような方法を実行することは困難であり、片眼ごとにrを決定することはできない。 Here, since it can be assumed that the direction of the origin correction vector r 0 reflects the direction of deviation between the visual axis and the optical axis, r 0 changes its magnitude with rotation around the visual axis. Should rotate without. In the case of taking an image of the eyeball while enlarging it, there is a method of directly measuring the eyeball rotation angle around the visual axis by using the brightness of an elliptical iris image with the pupil center as the origin. However, depending on the quality of the image can be acquired by the camera, it is difficult to perform such a method, it is impossible to determine the r 0 for each eye.

そこで、本実施形態では、対象者が頭部を側屈させたとき、両眼のrが同じ角度γだけ、視軸回りに回転するという拘束条件を設ける。さらに、角度γを求める際にだけ、常に両眼の視軸が共にカメラ(光源)(図6の点O’)を通り、かつ両眼の瞳孔が同一平面上にあると仮定する。 Therefore, in this embodiment, when the subject is not buckled side the head, r 0 of both eyes at the same angle gamma, providing constraint that rotates in the visual axis direction. Further, it is assumed that the visual axes of both eyes always pass through the camera (light source) (point O ′ in FIG. 6) and the pupils of both eyes are on the same plane only when obtaining the angle γ.

以下、このような拘束条件を用いた注視点検出方法について説明する。まず、注視点検出処理を開始する前に予め、対象者が一の姿勢をとった時の光軸と視軸のずれを、角膜反射点の座標及び瞳孔中心の座標に基づいて計算する(ずれ計算ステップ)。具体的には、注視点を較正するため、画像処理装置7が、画面中央の座標が既知の視標をディスプレイ装置8に提示し、この視標を対象者に注視させる。これにより、ずれとしての原点補正ベクトルr及び係数kが決定される。 Hereinafter, a gaze point detection method using such a constraint condition will be described. First, before starting the gazing point detection process, the deviation between the optical axis and the visual axis when the subject takes one posture is calculated based on the coordinates of the corneal reflection point and the coordinates of the pupil center. Calculation step). Specifically, in order to calibrate the gazing point, the image processing device 7 presents a visual target whose coordinates at the center of the screen are known to the display device 8, and causes the subject to gaze at the visual target. As a result, the origin correction vector r 0 and the coefficient k as the deviation are determined.

その後、ステレオカメラ2a,2bと、光源3a,3bと、を用いて対象者の顔画像を生成する(顔画像生成ステップ)。続いて、ステレオカメラ2a,2bによるそれぞれの顔画像(例えば明瞳孔画像及び暗瞳孔画像)に基づいて、光源3a,3bからの光の、対象者の角膜上の反射点である角膜反射点の座標と、対象者の瞳孔の中心である瞳孔中心の座標と、を計算する(座標計算ステップ)。   Thereafter, a face image of the subject is generated using the stereo cameras 2a and 2b and the light sources 3a and 3b (face image generation step). Subsequently, based on the respective face images (for example, bright pupil image and dark pupil image) by the stereo cameras 2a and 2b, the corneal reflection point, which is the reflection point on the subject's cornea, of the light from the light sources 3a and 3b. The coordinates and the coordinates of the pupil center, which is the center of the pupil of the subject, are calculated (coordinate calculation step).

次に、角膜反射点の座標及び瞳孔中心の座標に基づいて、対象者の眼球の中心軸である光軸の方向を計算する(光軸方向計算ステップ)。この光軸方向計算ステップにより、図6の点a’,a’の座標が得られる。 Next, the direction of the optical axis that is the central axis of the eyeball of the subject is calculated based on the coordinates of the corneal reflection point and the coordinates of the pupil center (optical axis direction calculation step). By this optical axis direction calculation step, the coordinates of the points a ′ L and a ′ R in FIG. 6 are obtained.

次に、光軸と視軸とのずれの視軸回りの回転角が対象者の左眼と右眼とで同一であるという拘束条件に基づいて、光軸と視軸とのずれの視軸回りの回転角度を算出する(回転角度算出ステップ)。ここで、ずれとは、上述した原点補正ベクトルrに相当する。ずれ補正ステップについて次に詳述する。 Next, based on the constraint that the rotation angle around the visual axis of the deviation between the optical axis and the visual axis is the same for the left eye and the right eye of the subject, the visual axis of the deviation between the optical axis and the visual axis A rotation angle around is calculated (rotation angle calculation step). Here, the deviation corresponds to the origin correction vector r 0 described above. Next, the shift correction step will be described in detail.

いま、頭部が左側屈し、両眼が視軸回りに同一の未知の角度γだけ反時計回りに回転したとする。それに伴い、原点補正ベクトルr0L,r0Rが共に角度γだけ回転することにより、ベクトルr’,r’が変化する(図10)。つまり、頭部側屈による回転の補正を行わない場合、左右の眼の注視点(視線方向)がもともとGの位置で一致していたのが、ベクトルg,gの位置にそれぞれずれて算出される。 Now, assume that the head is bent to the left and both eyes are rotated counterclockwise by the same unknown angle γ around the visual axis. Accordingly, the origin correction vectors r 0L and r 0R are both rotated by an angle γ, whereby the vectors r ′ L and r ′ R are changed (FIG. 10). That is, when correction of rotation due to head side bending is not performed, the gaze point (gaze direction) of the left and right eyes originally matched at the G position is shifted to the positions of the vectors g L and g R , respectively. Calculated.

ここで角度γの回転行列である行列{γ}を次の式(6)で表現する。

Figure 2015169959
Here, a matrix {γ} that is a rotation matrix of the angle γ is expressed by the following equation (6).
Figure 2015169959

この場合、右眼の注視点は、次の式(7)及び式(8)で表される。

Figure 2015169959

Figure 2015169959
In this case, the gaze point of the right eye is expressed by the following expressions (7) and (8).
Figure 2015169959

Figure 2015169959

同様に左眼の注視点も算出できるため、ベクトルgは、次の式(9)により得られる。

Figure 2015169959
Similarly, since the gaze point of the left eye can be calculated, the vector g R g L is obtained by the following equation (9).
Figure 2015169959

式(9)を変形すると、次の式(10)が得られる。

Figure 2015169959
When the equation (9) is transformed, the following equation (10) is obtained.
Figure 2015169959

ここで、次の式(11)のようにベクトルA,Bを定める。

Figure 2015169959
Here, vectors A and B are defined as in the following equation (11).
Figure 2015169959

この場合、式(10)は、次の式(12)のように書くことができる。

Figure 2015169959
In this case, the equation (10) can be written as the following equation (12).
Figure 2015169959

式(12)は、ベクトルAを角度γだけ回転させるとベクトルBに等しくなることを意味する。したがって、次式(13)により角度γを算出することができる。

Figure 2015169959
Equation (12) means that the vector A is equal to the vector B when rotated by the angle γ. Therefore, the angle γ can be calculated by the following equation (13).
Figure 2015169959

なお、式(13)からは、γの正負が不明である。しかしながら、γの正負は、例えばベクトルAとベクトルBとの外積の正負に基づいて決定することができる。   In addition, from Formula (13), the sign of γ is unknown. However, the sign of γ can be determined based on the sign of the outer product of the vector A and the vector B, for example.

このようにして得た角度γに対応する回転行列{γ}を原点補正ベクトルrに乗算して回転補正することにより、補正後の原点補正ベクトル{γ}rが得られる。 The origin correction vector {γ} r 0 after correction is obtained by multiplying the origin correction vector r 0 by the rotation matrix {γ} corresponding to the angle γ obtained in this way and correcting the rotation.

次に、光軸の方向を、回転補正されたずれに基づいて補正することにより、視軸の方向を計算し、視軸の方向に基づいて注視点を検出する(注視点検出ステップ)。具体的には、式(13)により算出したγにより補正された原点補正ベクトル{γ}rを利用して、正しい注視点を求める。回転後の光軸ベクトルa’は、式(8)を変形して得られる次の式(14)で表すことができる。

Figure 2015169959
Next, the direction of the optical axis is calculated by correcting the direction of the optical axis based on the rotationally corrected deviation, and the point of gaze is detected based on the direction of the visual axis (gaze point detection step). Specifically, a correct gazing point is obtained using the origin correction vector {γ} r 0 corrected by γ calculated by Expression (13). The rotated optical axis vector a ′ R can be expressed by the following formula (14) obtained by transforming the formula (8).
Figure 2015169959

式(7)及び式(14)から、最終的に次式(15)が導出される。式(15)において、GnewRは、右眼における原点補正ベクトルr0Rの回転補正を行った後の正しい注視点を表す。

Figure 2015169959
The following equation (15) is finally derived from the equations (7) and (14). In equation (15), G newR represents a correct gazing point after the rotation correction of the origin correction vector r 0R in the right eye.
Figure 2015169959

なお、式(12)を成分表示して2つの式を得て、これらの2つの式の少なくとも一方に基づいて角度γを求めるようにしてもよい。式(12)の成分表示をする際には、座標軸として、例えば対象者の左眼の瞳孔の中心と右眼の瞳孔の中心とを結ぶ直線に平行な方向を第一方向とし、この第一方向及びカメラの光軸の両方に垂直な方向を第二方向として、これらの第一方向及び第二方向の二方向の成分表示とすることができる。また、特に、第二方向の成分を用いて計算することにより角度γを求めるようにしてもよい。   Note that the equation (12) may be displayed as components to obtain two equations, and the angle γ may be obtained based on at least one of these two equations. When displaying the component of Expression (12), for example, the first direction is a direction parallel to a straight line connecting the center of the pupil of the left eye of the subject and the center of the pupil of the right eye as the coordinate axis. The direction perpendicular to both the direction and the optical axis of the camera is taken as the second direction, and component display in these two directions of the first direction and the second direction can be made. In particular, the angle γ may be obtained by calculating using the component in the second direction.

(両眼の注視点が一致しない場合)
注視点検出を開始する前の注視点較正を行う段階では、非常に小さな一点を対象者に凝視させることになるため、対象者の両眼の注視点は、この非常に小さな一点にほぼ一致する。この段階で、左眼及び右眼の原点補正ベクトルr0L及びr0Rは決定される。しかしながら、注視点較正を行った後に、対象者の両眼の視軸のなす角度である輻輳角が小さくなって対象者の両眼の注視点が離れたり、逆に輻輳角が大きくなって左右の眼の視軸が交差し、左右の眼球の注視点が入れ替わったりする場合がある。この場合、先に述べた方法では角度γを正確に算出することができず、その結果、左右の眼球の注視点も正確に算出することができない。
(If the eyes of both eyes do not match)
At the stage of gazing point calibration before starting gazing point detection, the subject is staring at a very small point, so the gazing point of both eyes of the subject almost matches this very small point. . At this stage, the left eye and right eye origin correction vectors r 0L and r 0R are determined. However, after gazing point calibration, the convergence angle, which is the angle formed by the visual axes of both eyes of the subject, decreases and the gazing point of both eyes of the subject separates. The visual axes of the left and right eyes may intersect and the gazing points of the left and right eyeballs may be switched. In this case, the angle γ cannot be accurately calculated by the above-described method, and as a result, the gazing point of the right and left eyeballs cannot be accurately calculated.

以下では、そのような場合においても角度γ及び左右の眼球の注視点をより精度よく算出する方法について説明する。図11に示すように、対象者の頭部が回転したときの対象者の頭部の回転角度は、各カメラから見た左右の瞳孔を結ぶ直線の回転角である角度γとして得られる。 Hereinafter, a method for calculating the angle γ and the gaze points of the right and left eyeballs with high accuracy even in such a case will be described. As shown in FIG. 11, the rotation angle of the subject's head when the subject's head rotates is obtained as an angle γ H that is a rotation angle of a straight line connecting the left and right pupils as viewed from each camera.

また、図12は、対象者の左右両眼での注視点が離れた場合における、図10に対応する図である。なお、ベクトルr,r,r’,r’については、以下の計算に必要ではないので、図示を省略している。また、本明細書中の以下の記載においては、図12における文字x,yの上部に記号「^」を付した文字を、それぞれ「x^」、「y^」と表記する。図12において、x^軸及びy^軸は、それぞれx軸及びy軸を角度γだけ回転させた軸である。なお、上述した第一方向及び第二方向は、それぞれx^軸方向及びy^軸方向に対応する。 FIG. 12 is a diagram corresponding to FIG. 10 when the gaze point of the subject's left and right eyes is separated. Note that the vectors r L , r R , r ′ L , and r ′ R are not shown in the figure because they are not necessary for the following calculation. Further, in the following description in the present specification, characters with the symbol “^” added to the upper part of the characters x, y in FIG. 12 are represented as “x ^” and “y ^”, respectively. In FIG. 12, x ^ axis and y ^ axis is an axis obtained by rotating the x-axis and y-axis by an angle gamma H, respectively. The first direction and the second direction described above correspond to the x ^ -axis direction and the y ^ -axis direction, respectively.

図12において、注視点較正時の基準の頭部位置での原点補正ベクトルr0R,r0Lは、それぞれ図10と同様に破線で示されている。さらに、図10に示した場合と同様に、対象者の頭部が角度γだけ回転したことに伴い、原点補正ベクトルr0R,r0Lが角度γだけ回転したとする。このとき、左右の眼の注視点が、注視点較正時には一致しており、注視点較正後にベクトルG’だけ離れたとする。ここで、3次元空間上において、左右の瞳孔と、左右の眼の注視点とが、同一平面上に存在すると仮定する。また、対象者が頭を傾けた場合にも、この仮定が成立すると仮定する。以下の計算では、この仮定を拘束条件として計算する。この仮定の下では、ベクトルG’は、x^軸と平行になる。 In FIG. 12, the origin correction vectors r 0R and r 0L at the reference head position at the time of gazing point calibration are indicated by broken lines as in FIG. Further, similarly to the case shown in FIG. 10, it is assumed that the origin correction vectors r 0R and r 0L are rotated by the angle γ as the subject's head is rotated by the angle γ H. At this time, it is assumed that the gazing points of the left and right eyes coincide at the time of gazing point calibration, and are separated by a vector G ′ after gazing point calibration. Here, it is assumed that the left and right pupils and the gazing points of the left and right eyes exist on the same plane in the three-dimensional space. It is also assumed that this assumption holds even when the subject tilts his head. In the following calculation, this assumption is used as a constraint condition. Under this assumption, the vector G ′ is parallel to the x ^ axis.

いま、x−y座標系において、式(7),(9)は、それぞれ次の式(16),(17)のように変更される。

Figure 2015169959

Figure 2015169959
Now, in the xy coordinate system, the expressions (7) and (9) are changed to the following expressions (16) and (17), respectively.
Figure 2015169959

Figure 2015169959

式(17)において、ベクトルG’は、未知の2次元ベクトルであり、先述した左右の眼の注視点が一致している場合に比べ未知数が2つ増えたことになる。このような条件でも、角度γを求め、更に左右の眼の注視点を推定するために、以下の方法をとる。   In Expression (17), the vector G ′ is an unknown two-dimensional vector, and the number of unknowns is increased by two compared to the case where the gaze points of the left and right eyes coincide with each other. Even under such conditions, the following method is used to obtain the angle γ and to estimate the gaze points of the left and right eyes.

まず、先述のように、図11において、x−y座標系を角度γだけ回転させたx^−y^座標系を新たに設定すると、G’は、x^成分のみのベクトルとなる。これにより、未定定数を1つ減らすことができる。 First, as previously described, in FIG. 11, when setting up a new x ^ -y ^ coordinate system obtained by rotating the x-y coordinate system by an angle gamma H, G 'is a vector of x ^ component only. As a result, the undetermined constant can be reduced by one.

これにより、式(17)は、次の式(18)に変更される。

Figure 2015169959
Thereby, Formula (17) is changed into following Formula (18).
Figure 2015169959

なお、^を付したベクトルは、それぞれ座標系を反時計回りに角度γだけ回転させたときのベクトルである。 Note that the vector given the ^ is a vector when each is rotated by an angle gamma H coordinate system counterclockwise.

ここで、次の式(19),(20)のように変数p,q,s,tを定める。

Figure 2015169959

Figure 2015169959
Here, variables p, q, s, and t are defined as in the following equations (19) and (20).
Figure 2015169959

Figure 2015169959

この場合、未知の値Xを使用して、ベクトルG’^=(X,0)とおき、式(6)の行列{γ}を使用して、各項を成分表示することにより、次の式(21)が得られる。

Figure 2015169959
In this case, the unknown value X is used as a vector G ′ ^ = (X, 0), and each term is displayed as a component by using the matrix {γ} of Equation (6), so that Equation (21) is obtained.
Figure 2015169959

式(21)から、第一方向の式として式(22)と第二方向の式として式(23)の2つの式が得られる。

Figure 2015169959

Figure 2015169959
From Expression (21), two expressions of Expression (22) as the expression in the first direction and Expression (23) as the expression in the second direction are obtained.
Figure 2015169959

Figure 2015169959

このうち式(23)は、未知数がγのみであるため、式(23)からγを決定することができ、このγと式(24)を使用して左眼と右眼の注視点が算出できるとともに、2つの注視点の間の距離を求めることができる。

Figure 2015169959
Of these, since the unknown is only γ, the γ can be determined from the equation (23), and the gaze point of the left eye and the right eye is calculated using this γ and the equation (24). In addition, the distance between the two gazing points can be obtained.
Figure 2015169959

さらに、式(23)から決定されたγを式(22)に代入することで、2つの注視点の間の距離に相当する未知数Xも求まる。   Further, by substituting γ determined from Expression (23) into Expression (22), an unknown number X corresponding to the distance between two gazing points can also be obtained.

γが求まれば、先述の式(15)を用いて、右眼の注視点GnewRを算出することができる。また、同様に左眼の注視点を算出することもできる。 Once γ is obtained, the right-eye gazing point G newR can be calculated using the above-described equation (15). Similarly, it is possible to calculate the gaze point of the left eye.

(実験例)
頭部の左右側屈による注視点検出誤差を、上述した補正法による回転補正の前後で比較した。被験者は大学生6名とし、ディスプレイ装置の正面から約80cmの位置において、被験者の頭部を顎台に乗せた状態で実験を行った。予め注視点較正を行った後、画面上に3行3列に配置した視標9点を順に1秒間ずつ被験者に注視させた。なお、頭部の側屈の角度は、約30°〜45°の範囲であり、被験者毎に異なっている。
(Experimental example)
The gaze point detection error due to the left and right side bending of the head was compared before and after the rotation correction by the correction method described above. The subjects were six university students, and the experiment was conducted with the subject's head on the chin rest at a position approximately 80 cm from the front of the display device. After gazing point calibration was performed in advance, 9 points of the target arranged in 3 rows and 3 columns on the screen were sequentially observed by the subject for 1 second. In addition, the angle of the side bending of the head is in a range of about 30 ° to 45 °, and is different for each subject.

図13は、補正の前後での各被験者における注視点検出誤差を示す。縦軸は、注視点検出誤差(単位:°)である。特に被験者A、Bにおいて、本実施形態の補正方法を行うことで、誤差の改善がみられた。被験者C、Dでは、本実施形態の補正方法による効果はあまり見られず、被験者E、Fでは、誤差が大きくなっている。   FIG. 13 shows gaze point detection errors in each subject before and after correction. The vertical axis represents a gazing point detection error (unit: °). In particular, in subjects A and B, the error was improved by performing the correction method of the present embodiment. In subjects C and D, the effect of the correction method of the present embodiment is not so much seen, and in subjects E and F, the error is large.

図14は、被験者Aにおける、補正前後それぞれの注視点の分布を示す。頭部を側屈させた場合、補正前では、図14(a)に示すように左右の注視点は一致しておらず、視標からずれた位置に注視点が検出されていた。これに対し、補正後では、図14(b)に示すように左右の注視点が一致している。上述した補正方法により、被験者Aにおいては、注視点検出誤差を左眼で28.2%低減でき、右眼で61.2%低減することができた。なお、被験者Bにおいても同様に誤差を低減することができた。   FIG. 14 shows the distribution of gazing points before and after correction in the subject A. When the head is bent sideways, before correction, the left and right gazing points do not coincide as shown in FIG. 14A, and the gazing point is detected at a position shifted from the target. On the other hand, after correction, the left and right gaze points coincide as shown in FIG. With the correction method described above, in subject A, the gaze point detection error could be reduced by 28.2% with the left eye and 61.2% with the right eye. Note that the error could be reduced in the subject B as well.

被験者C及びDについては、回転補正前と回転補正後において、注視点検出誤差に大きな差は見られなかった。被験者Cにおいては、左右に頭部を側屈させているにもかかわらず、光軸と視対象平面との交点は側屈の有無によってあまり変わらず、大きく回転していなかった。この原因としては、ヒトが頭部を側屈させた際に、頭部の回転方向とは逆向きに、視軸回りの眼球回転である回旋運動が生じたことが考えられる。このような被験者Cにおいては、本実施形態の回転補正は不要であると考えられる。   For subjects C and D, there was no significant difference in gazing point detection error before and after rotation correction. In subject C, although the head was bent sideways to the left and right, the intersection between the optical axis and the plane to be viewed did not change much depending on the presence or absence of side bending, and did not rotate significantly. As a cause of this, it is considered that when a human side-bends the head, a rotational motion that is an eyeball rotation around the visual axis occurs in the direction opposite to the rotation direction of the head. In such a subject C, it is considered that the rotation correction of the present embodiment is unnecessary.

被験者E及びFにおいては、回転補正前よりも補正後において誤差が大きくなっていた。本実施形態の補正方法では、両眼の視軸が画面上の注視点で一致すると仮定している。しかしながら、両被験者は、頭部が回転していない場合でも、両眼の視軸交点が注視点上で一致せず、回転角度γを正確に算出できなかった。このことが、誤差の増加した要因の一つであると考えられる。   In subjects E and F, the error was larger after correction than before rotation correction. In the correction method of the present embodiment, it is assumed that the visual axes of both eyes coincide with each other on the screen. However, both subjects could not accurately calculate the rotation angle γ because the visual axis intersection of both eyes did not coincide on the point of sight even when the head was not rotating. This is considered to be one of the factors that increased the error.

以上の結果から、両眼において光軸が視軸回りに同じだけ回転している、画面上で両眼の視軸交点が一致している、等の拘束条件を満たすと考えられる被験者においては、本実施形態の補正方法が有効であるといえる。   From the above results, in the subject considered to satisfy the constraint conditions such as the optical axis rotating in the same direction around the visual axis in both eyes, the visual axis intersection point of both eyes on the screen match, It can be said that the correction method of this embodiment is effective.

本実施形態の回転角度算出方法及び回転角度算出装置によれば、まず、角膜反射点の座標及び瞳孔中心の座標に基づいて、対象者の眼球の光軸の方向が計算される。また、対象者が一の姿勢をとった時の光軸と視軸とのずれとして、原点補正ベクトルrが計算される。次に、原点補正ベクトルrの視軸回りの回転角が対象者の左眼と右眼とで同一であるという拘束条件に基づいて、原点補正ベクトルrの視軸回りの回転角度が算出される。このように、対象者の姿勢に応じて原点補正ベクトルrの視軸回りの回転角度が算出されるため、対象者の姿勢によらず高精度に原点補正ベクトルrの視軸回りの回転角度を算出することができる。 According to the rotation angle calculation method and the rotation angle calculation apparatus of the present embodiment, first, the direction of the optical axis of the eyeball of the subject is calculated based on the coordinates of the corneal reflection point and the coordinates of the pupil center. Also, the origin correction vector r 0 is calculated as the deviation between the optical axis and the visual axis when the subject takes one posture. Then, based on the constraint that the rotation angle of the visual axis of the origin correction vector r 0 is the same between the left and right eyes of the subject, the rotation angle of the visual axis of the origin correction vector r 0 is calculated Is done. Thus, since the rotation angle around the visual axis of the origin correction vector r 0 is calculated according to the posture of the subject person, the rotation around the visual axis of the origin correction vector r 0 is highly accurate regardless of the orientation of the subject person. The angle can be calculated.

また、回転角度算出ステップでは、対象者の左眼の瞳孔の中心と右眼の瞳孔の中心とを結ぶ直線に平行な方向を第一方向(x^軸方向)とし、第一方向及びカメラの光軸の両方に垂直な方向を第二方向(y^軸方向)として、第二方向の成分を用いて原点補正ベクトルrを計算してもよい。人間の眼の性質として、左眼と右眼の視線の方向は、第二方向に沿っては離れにくい。したがって、対象者の左眼と右眼の視線の方向が離れてしまった場合の回転角度算出の精度を向上させることができる。 In the rotation angle calculation step, a direction parallel to a straight line connecting the center of the pupil of the left eye of the subject and the center of the pupil of the right eye is defined as the first direction (x ^ -axis direction), and the first direction and the camera The origin correction vector r 0 may be calculated using the component in the second direction with the direction perpendicular to both of the optical axes as the second direction (y ^ -axis direction). As the nature of the human eye, the direction of the line of sight of the left eye and the right eye is difficult to leave along the second direction. Therefore, it is possible to improve the accuracy of calculation of the rotation angle when the direction of the line of sight of the left eye and the right eye of the subject is separated.

なお、上述した回転角度算出方法及び注視点検出方法は、コンピュータが回転角度算出プログラム又は注視点検出プログラムをメモリ上にダウンロードして当該プログラムを実行することによって、実行されてもよい。   The rotation angle calculation method and the gaze point detection method described above may be executed by a computer downloading a rotation angle calculation program or a gaze point detection program onto a memory and executing the program.

(情報入力方法)
上述した注視点検出方法によれば、対象者の頭部回転によらずに注視点を検出することができる。さらに式(21)から未知数Xを計算することにより、左右の眼の注視点がどの程度離れているかを算出することもできる。そこで、上述した注視点検出方法に基づいて、以下のような情報入力方法を実施することができる。
(Information input method)
According to the gazing point detection method described above, it is possible to detect the gazing point without depending on the rotation of the subject's head. Further, by calculating the unknown X from the equation (21), it is possible to calculate how far the gazing points of the left and right eyes are apart. Therefore, the following information input method can be implemented based on the above-described gaze point detection method.

この情報入力方法を実施するための情報入力装置は、図1に示した注視点検出装置と概ね同様の構成を有する。画像処理装置7は、ディスプレイ装置8に、例えばマトリックス状に配列された複数の文字を表示させる。対象者は、ディスプレイ装置8に表示された複数の文字のうち1つの文字を注視することにより、当該注視された文字に対応する情報をパーソナルコンピュータ等の情報処理端末に入力する。この情報処理端末は、画像処理装置7と同一の情報処理端末であってもよいし、画像処理装置7とは別の情報処理端末であってもよい。   An information input device for implementing this information input method has a configuration substantially similar to that of the gazing point detection device shown in FIG. The image processing device 7 causes the display device 8 to display a plurality of characters arranged in a matrix, for example. The subject gazes at one character among the plurality of characters displayed on the display device 8 and inputs information corresponding to the watched character to an information processing terminal such as a personal computer. This information processing terminal may be the same information processing terminal as the image processing apparatus 7 or may be an information processing terminal different from the image processing apparatus 7.

次にこの情報入力方法の手順について説明する。まず、上述した手順により、対象者の両眼の注視点を検出する(両眼注視点検出ステップ)。これにより、対象者の両眼の注視点間の距離を検出することができる。   Next, the procedure of this information input method will be described. First, the gaze point of both eyes of the subject is detected by the above-described procedure (a binocular gaze point detection step). Thereby, the distance between the gazing points of both eyes of the subject can be detected.

続いて、対象者の両眼の注視点の間の距離及びこの距離が所定の範囲にある時間に基づいて、対象者による入力がなされたと判定する。一例として、対象者の両眼の注視点の間の距離が所定値(例えば8mm)以下である状態が所定時間(例えば0.5秒)以上続いた場合に、情報処理端末は、対象者による入力がなされたと判定する。そして、ディスプレイ装置8の画面上の、対象者の注視点に表示されている文字に対応する情報が情報処理端末に入力される。   Subsequently, it is determined that an input has been made by the subject based on the distance between the gazing points of both eyes of the subject and the time during which this distance is within a predetermined range. As an example, when the distance between the gazing points of both eyes of the subject continues for a predetermined time (for example, 0.5 seconds) or longer for a predetermined time (for example, 8 mm) or less, the information processing terminal It is determined that input has been made. And the information corresponding to the character currently displayed on the screen of the display apparatus 8 at the subject's gaze point is input into an information processing terminal.

または、対象者の両眼の注視点の間の距離の絶対値の大きさに応じて重みづけ加点をフレーム毎にしてもよい。例えば、重みづけ値をw、所定値をDisとして、Disが8mm以下であるとき、w=8−Disで与える。そして注視点検出ごとに(例えば60回/秒)加算する。この加算値が所定の値(例えば100)を超えたときに情報を情報処理端末に入力されるようにする。ここで、Disが8mmを超えたときは、加算値を零に戻す。   Alternatively, the weighted points may be added for each frame in accordance with the magnitude of the absolute value of the distance between the gazing points of both eyes of the subject. For example, when the weighting value is w and the predetermined value is Dis, and Dis is 8 mm or less, w = 8−Dis is given. Then, it is added every time the gazing point is detected (for example, 60 times / second). When the added value exceeds a predetermined value (for example, 100), information is input to the information processing terminal. Here, when Dis exceeds 8 mm, the added value is returned to zero.

なお、対象者の両眼の注視点の間の距離が短ければ短いほど、対象者による入力がなされたと情報処理端末が判定するまでの時間を短くしてもよい。   Note that the shorter the distance between the gazing points of both eyes of the subject person, the shorter the time until the information processing terminal determines that the input by the subject person has been made.

この情報入力方法によれば、対象者の両眼の注視点を検出し、検出された両眼の注視点の間の距離及びこの距離が所定の範囲にある時間に基づいて、対象者による情報の入力がなされたと判定する。ここで、一般的に、人間が何らかの情報の入力をしようと考えているときには、両眼の注視点の間の距離が狭くなる傾向がある。一方、人間が何を入力しようかと迷っていたり、画面全体を見渡していたり、意識が散漫になっていたりするときには、両眼の注視点の間の距離は広くなる傾向がある。このため、上記の情報入力方法によれば、対象者が何らかの情報の入力をしようとしていることを適切に検出することができる。例えば、対象者がたまたまディスプレイ装置8の方を向いていた場合において、対象者が特に何らかの文字を入力する意図を有していないにもかかわらず、対象者の注視点(例えば両眼の注視点の中点)として検出された点に表示された文字が対象者の意図に反して入力されてしまう、といったことが抑制される。このため、対象者が効率よく入力操作を行うことができる。   According to this information input method, information on the subject's eyes is detected based on the distance between the eyes of the detected eyes and the time during which the distance is within a predetermined range. Is determined to have been entered. Here, in general, when a human wants to input some information, the distance between the gazing points of both eyes tends to be narrow. On the other hand, when a person is wondering what to input, looking over the entire screen, or distracted, the distance between the gazing points of both eyes tends to increase. For this reason, according to said information input method, it can detect appropriately that the subject is going to input some information. For example, when the subject happens to be facing the display device 8, the subject's gaze point (for example, a binocular gaze point) even though the subject has no particular intention to input some characters. The character displayed at the point detected as the middle point) is prevented from being input against the intention of the subject. For this reason, a subject can perform input operation efficiently.

なお、上述した情報入力方法は、コンピュータが情報入力プログラムをメモリ上にダウンロードして当該プログラムを実行することによって、実行されてもよい。   The information input method described above may be executed by a computer downloading an information input program onto a memory and executing the program.

1…注視点検出装置、2a,2b…ステレオカメラ(カメラ)、3a,3b…光源、7…画像処理装置(画像処理部)、A…対象者、G…角膜反射点、P…瞳孔中心、Q…注視点、r…原点補正ベクトル(ずれ)。 DESCRIPTION OF SYMBOLS 1 ... Gaze point detection apparatus, 2a, 2b ... Stereo camera (camera), 3a, 3b ... Light source, 7 ... Image processing apparatus (image processing part), A ... Subject, G ... Cornea reflection point, P ... Pupil center, Q: gazing point, r 0 : origin correction vector (deviation).

Claims (12)

2台以上のカメラと、対象者に光を照射する光源と、を用いて前記対象者の顔画像を生成する顔画像生成ステップと、
前記2台以上のカメラによるそれぞれの顔画像に基づいて、前記光源からの光の前記対象者の角膜上の反射点である角膜反射点の座標と、前記対象者の瞳孔の中心である瞳孔中心の座標と、を計算する座標計算ステップと、
前記角膜反射点の座標及び前記瞳孔中心の座標に基づいて、前記対象者の眼球の中心軸である光軸の方向を計算する光軸方向計算ステップと、
前記対象者の眼球の中心窩と前記対象者の注視点とを結ぶ直線を視軸として、前記対象者が一の姿勢をとった時の前記光軸と前記視軸のずれを前記角膜反射点の座標及び瞳孔中心の座標に基づいて計算するずれ計算ステップと、
前記光軸と前記視軸とのずれの前記視軸回りの回転角度が前記対象者の左眼と右眼とで同一であるという拘束条件に基づいて、前記視軸回りの回転角度を算出する回転角度算出ステップと、
を備える回転角度算出方法。
A face image generation step of generating a face image of the subject using two or more cameras and a light source that irradiates the subject with light;
Based on the respective face images from the two or more cameras, the coordinates of the corneal reflection point, which is the reflection point on the cornea of the subject, of the light from the light source, and the pupil center that is the center of the pupil of the subject A coordinate calculation step for calculating the coordinates of
An optical axis direction calculating step for calculating the direction of the optical axis that is the central axis of the eyeball of the subject based on the coordinates of the corneal reflection point and the coordinates of the pupil center;
Using the straight line connecting the fovea of the eyeball of the subject and the gazing point of the subject as a visual axis, the difference between the optical axis and the visual axis when the subject takes one posture is the corneal reflection point. A deviation calculation step for calculating based on the coordinates of and the pupil center coordinates;
The rotation angle around the visual axis is calculated based on the constraint that the rotation angle around the visual axis of the deviation between the optical axis and the visual axis is the same for the left eye and the right eye of the subject. A rotation angle calculating step;
A rotation angle calculation method comprising:
前記回転角度算出ステップでは、前記対象者の左眼の瞳孔の中心と右眼の瞳孔の中心とを結ぶ直線に平行な方向を第一方向とし、前記第一方向及び前記カメラの光軸の両方に垂直な方向を第二方向として、前記第二方向の成分を用いて前記視軸回りの回転角度を算出する請求項1に記載の回転角度算出方法。   In the rotation angle calculating step, a direction parallel to a straight line connecting the center of the left eye pupil and the center of the right eye pupil of the subject is defined as a first direction, and both the first direction and the optical axis of the camera The rotation angle calculation method according to claim 1, wherein a rotation angle around the visual axis is calculated using a component in the second direction, with a direction perpendicular to the second direction as a second direction. 請求項1または2に記載の回転角度算出方法における前記光軸方向計算ステップで計算された光軸の方向を、請求項1または2に記載の回転角度算出方法で算出された前記視軸回りの回転角度に基づいて前記ずれを補正することにより前記視軸の方向を計算し、前記視軸の方向に基づいて前記対象者の注視点を検出する、
注視点検出方法。
The direction of the optical axis calculated in the optical axis direction calculation step in the rotation angle calculation method according to claim 1 or 2, wherein the direction of the optical axis around the visual axis calculated by the rotation angle calculation method according to claim 1 or 2 is used. Calculating the direction of the visual axis by correcting the shift based on a rotation angle, and detecting the gaze point of the subject based on the direction of the visual axis;
Gaze point detection method.
請求項3に記載の注視点検出方法により対象者の両眼の注視点を検出する両眼注視点検出ステップと、
前記両眼注視点検出ステップにおいて検出された対象者の両眼の注視点の間の距離に基づいて、対象者による入力がなされたと判定するステップと、
を備える、情報入力方法。
A binocular gazing point detection step of detecting a gazing point of both eyes of the subject by the gazing point detection method according to claim 3;
Determining that an input has been made by the subject based on the distance between the gazing points of both eyes of the subject detected in the binocular gazing point detection step;
An information input method comprising:
対象者の顔画像に基づいて、該対象者の注視点を検出する注視点検出装置であって、
前記対象者の顔画像を取得する2台以上のカメラと、
前記対象者に光を照射する光源と、
前記2台以上のカメラから出力された画像信号を処理する画像処理部と、
を備え、
前記画像処理部は、
前記2台以上のカメラによるそれぞれの顔画像に基づいて、前記光源からの光の前記対象者の角膜上の反射点である角膜反射点の座標と、前記対象者の瞳孔の中心である瞳孔中心の座標と、を計算し、
前記角膜反射点の座標及び前記瞳孔中心の座標に基づいて、前記対象者の眼球の中心軸である光軸の方向を計算し、
前記対象者の眼球の中心窩と前記対象者の注視点とを結ぶ直線を視軸として、前記対象者が一の姿勢をとった時の前記光軸と前記視軸のずれを前記角膜反射点の座標及び瞳孔中心の座標に基づいて計算し、
前記光軸と前記視軸とのずれの前記視軸回りの回転角度が前記対象者の左眼と右眼とで同一であるという拘束条件に基づいて、前記視軸回りの回転角度を算出する回転角度算出装置。
A gazing point detection device that detects a gazing point of the subject based on the face image of the subject,
Two or more cameras for acquiring the subject's face image;
A light source for irradiating the subject with light;
An image processing unit that processes image signals output from the two or more cameras;
With
The image processing unit
Based on the respective face images from the two or more cameras, the coordinates of the corneal reflection point, which is the reflection point on the cornea of the subject, of the light from the light source, and the pupil center that is the center of the pupil of the subject And the coordinates of
Based on the coordinates of the corneal reflection point and the coordinates of the pupil center, calculate the direction of the optical axis that is the central axis of the eyeball of the subject,
Using the straight line connecting the fovea of the eyeball of the subject and the gazing point of the subject as a visual axis, the difference between the optical axis and the visual axis when the subject takes one posture is the corneal reflection point. Based on the coordinates of and the pupil center coordinates,
The rotation angle around the visual axis is calculated based on the constraint that the rotation angle around the visual axis of the deviation between the optical axis and the visual axis is the same for the left eye and the right eye of the subject. Rotation angle calculation device.
前記視軸回りの回転角度を算出する際には、前記対象者の左眼の瞳孔の中心と右眼の瞳孔の中心とを結ぶ直線に平行な方向を第一方向とし、前記第一方向及び前記カメラの光軸の両方に垂直な方向を第二方向として、前記第二方向の成分を用いて前記視軸回りの回転角度を算出する請求項5に記載の回転角度算出装置。   When calculating the rotation angle around the visual axis, a direction parallel to a straight line connecting the center of the pupil of the left eye of the subject and the center of the pupil of the right eye is defined as the first direction, and the first direction and The rotation angle calculation apparatus according to claim 5, wherein a rotation angle around the visual axis is calculated using a component in the second direction with a direction perpendicular to both of the optical axes of the camera as a second direction. 請求項5または6に記載の回転角度算出装置により計算された光軸の方向を、請求項5または6に記載の回転角度算出装置で算出された前記視軸回りの回転角度に基づいて前記ずれを補正することにより前記視軸の方向を計算し、前記視軸の方向に基づいて前記対象者の注視点を検出する、注視点検出装置。   The direction of the optical axis calculated by the rotation angle calculation device according to claim 5 or 6 is changed based on the rotation angle around the visual axis calculated by the rotation angle calculation device according to claim 5 or 6. A gaze point detection device that calculates the direction of the visual axis by correcting the visual axis and detects the gaze point of the subject based on the direction of the visual axis. 請求項7に記載の注視点検出装置により対象者の両眼の注視点を検出する両眼注視点検出手段と、
前記両眼注視点検出手段により検出された対象者の両眼の注視点の間の距離に基づいて、対象者による入力がなされたと判定する入力判定手段と、
を備える、情報入力装置。
Binocular gazing point detection means for detecting a gazing point of both eyes of the subject by the gazing point detection device according to claim 7;
An input determination unit that determines that an input is made by the subject based on a distance between the gazing points of both eyes of the subject detected by the binocular gazing point detection unit;
An information input device comprising:
コンピュータを、
2台以上のカメラと、対象者に光を照射する光源と、を用いて前記対象者の顔画像を生成する顔画像生成手段、
前記2台以上のカメラによるそれぞれの顔画像に基づいて、前記光源からの光の前記対象者の角膜上の反射点である角膜反射点の座標と、前記対象者の瞳孔の中心である瞳孔中心の座標と、を計算する座標計算手段、
前記角膜反射点の座標及び前記瞳孔中心の座標に基づいて、前記対象者の眼球の中心軸である光軸の方向を計算する光軸方向計算手段、
前記対象者の眼球の中心窩と前記対象者の注視点とを結ぶ直線を視軸として、前記対象者が一の姿勢をとった時の前記光軸と前記視軸のずれを前記角膜反射点の座標及び瞳孔中心の座標に基づいて計算するずれ計算手段、及び
前記光軸と前記視軸とのずれの前記視軸回りの回転角度が前記対象者の左眼と右眼とで同一であるという拘束条件に基づいて、前記視軸回りの回転角度を算出する回転角度算出手段、
として機能させる回転角度算出プログラム。
Computer
Face image generation means for generating a face image of the subject using two or more cameras and a light source that irradiates the subject with light;
Based on the respective face images from the two or more cameras, the coordinates of the corneal reflection point, which is the reflection point on the cornea of the subject, of the light from the light source, and the pupil center that is the center of the pupil of the subject And coordinate calculation means for calculating
An optical axis direction calculating means for calculating the direction of the optical axis that is the central axis of the eyeball of the subject based on the coordinates of the corneal reflection point and the coordinates of the pupil center;
Using the straight line connecting the fovea of the eyeball of the subject and the gazing point of the subject as a visual axis, the difference between the optical axis and the visual axis when the subject takes one posture is the corneal reflection point. And a rotational angle around the visual axis of the shift between the optical axis and the visual axis is the same for the left eye and the right eye of the subject. A rotation angle calculation means for calculating a rotation angle around the visual axis based on the constraint condition,
Rotation angle calculation program to function as.
前記回転角度算出手段は、前記対象者の左眼の瞳孔の中心と右眼の瞳孔の中心とを結ぶ直線に平行な方向を第一方向とし、前記第一方向及び前記カメラの光軸の両方に垂直な方向を第二方向として、前記第二方向の成分を用いて前記視軸回りの回転角度を算出する請求項9に記載の回転角度算出プログラム。   The rotation angle calculation means sets a direction parallel to a straight line connecting the center of the pupil of the left eye of the subject and the center of the pupil of the right eye as a first direction, and both the first direction and the optical axis of the camera The rotation angle calculation program according to claim 9, wherein a rotation angle around the visual axis is calculated using a component in the second direction with a direction perpendicular to the second direction as a second direction. 請求項9または10に記載の回転角度算出プログラムにおける前記光軸方向計算手段により計算された光軸の方向を、請求項1または2に記載の回転角度算出プログラムで算出された前記視軸回りの回転角度に基づいて前記ずれを補正することにより前記視軸の方向を計算し、前記視軸の方向に基づいて前記対象者の注視点を検出する、
注視点検出プログラム。
The direction of the optical axis calculated by the optical axis direction calculation means in the rotation angle calculation program according to claim 9 or 10 is calculated around the visual axis calculated by the rotation angle calculation program according to claim 1 or 2. Calculating the direction of the visual axis by correcting the shift based on a rotation angle, and detecting the gaze point of the subject based on the direction of the visual axis;
Gaze point detection program.
コンピュータを
請求項11に記載の注視点検出プログラムにより対象者の両眼の注視点を検出する両眼注視点検出手段と、
前記両眼注視点検出手段によって検出された対象者の両眼の注視点の間の距離に基づいて、対象者による入力がなされたと判定するステップと、
として機能させる情報入力プログラム。
A binocular gazing point detection means for detecting a gazing point of both eyes of the subject by the gazing point detection program according to claim 11;
Determining that an input has been made by the subject based on the distance between the gazing points of both eyes of the subject detected by the binocular gazing point detection means;
Information input program to function as.
JP2014042124A 2014-03-04 2014-03-04 Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program Active JP6324119B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014042124A JP6324119B2 (en) 2014-03-04 2014-03-04 Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014042124A JP6324119B2 (en) 2014-03-04 2014-03-04 Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program

Publications (2)

Publication Number Publication Date
JP2015169959A true JP2015169959A (en) 2015-09-28
JP6324119B2 JP6324119B2 (en) 2018-05-16

Family

ID=54202689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014042124A Active JP6324119B2 (en) 2014-03-04 2014-03-04 Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program

Country Status (1)

Country Link
JP (1) JP6324119B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102688A (en) * 2015-12-01 2017-06-08 株式会社Jvcケンウッド Visual line detection device and visual line detection method
WO2017134755A1 (en) * 2016-02-02 2017-08-10 富士通株式会社 Drowsiness determination program, drowsiness determination device, and drowsiness determination method
JP2019098024A (en) * 2017-12-06 2019-06-24 国立大学法人静岡大学 Image processing device and method
JP2019209106A (en) * 2017-06-08 2019-12-12 株式会社ナックイメージテクノロジー Visual line vector detector, vision function inspection device, vision function training device and method
WO2021059103A1 (en) * 2019-09-27 2021-04-01 Alcon Inc. Instant eye gaze calibration systems and methods
CN114302126A (en) * 2019-11-21 2022-04-08 苏州思源科安信息技术有限公司 Iris optical tracking system for long-distance large-visual-field iris optical imaging device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297323A (en) * 2008-06-16 2009-12-24 Kobe Univ Visual axis measuring apparatus
WO2011021936A1 (en) * 2009-08-20 2011-02-24 Technische Universiteit Delft Apparatus and method for automatically determining a strabismus angle
WO2012077713A1 (en) * 2010-12-08 2012-06-14 国立大学法人静岡大学 Method for detecting point of gaze and device for detecting point of gaze
JP2014021893A (en) * 2012-07-23 2014-02-03 Nec Casio Mobile Communications Ltd Information processing device, operation signal generation method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297323A (en) * 2008-06-16 2009-12-24 Kobe Univ Visual axis measuring apparatus
WO2011021936A1 (en) * 2009-08-20 2011-02-24 Technische Universiteit Delft Apparatus and method for automatically determining a strabismus angle
WO2012077713A1 (en) * 2010-12-08 2012-06-14 国立大学法人静岡大学 Method for detecting point of gaze and device for detecting point of gaze
JP2014021893A (en) * 2012-07-23 2014-02-03 Nec Casio Mobile Communications Ltd Information processing device, operation signal generation method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102688A (en) * 2015-12-01 2017-06-08 株式会社Jvcケンウッド Visual line detection device and visual line detection method
EP3385911A4 (en) * 2015-12-01 2018-12-19 JVC KENWOOD Corporation Line of sight detection device and line of sight detection method
WO2017134755A1 (en) * 2016-02-02 2017-08-10 富士通株式会社 Drowsiness determination program, drowsiness determination device, and drowsiness determination method
JP2019209106A (en) * 2017-06-08 2019-12-12 株式会社ナックイメージテクノロジー Visual line vector detector, vision function inspection device, vision function training device and method
JP2019098024A (en) * 2017-12-06 2019-06-24 国立大学法人静岡大学 Image processing device and method
JP7046347B2 (en) 2017-12-06 2022-04-04 国立大学法人静岡大学 Image processing device and image processing method
WO2021059103A1 (en) * 2019-09-27 2021-04-01 Alcon Inc. Instant eye gaze calibration systems and methods
US11786119B2 (en) 2019-09-27 2023-10-17 Alcon Inc. Instant eye gaze calibration systems and methods
CN114302126A (en) * 2019-11-21 2022-04-08 苏州思源科安信息技术有限公司 Iris optical tracking system for long-distance large-visual-field iris optical imaging device
CN114302126B (en) * 2019-11-21 2023-10-27 苏州思源科安信息技术有限公司 Iris optical tracking system for long-distance large-field-of-view iris optical imaging device

Also Published As

Publication number Publication date
JP6324119B2 (en) 2018-05-16

Similar Documents

Publication Publication Date Title
JP5858433B2 (en) Gaze point detection method and gaze point detection device
JP5915981B2 (en) Gaze point detection method and gaze point detection device
JP6324119B2 (en) Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program
JP6340503B2 (en) Eye tracking system and method for detecting dominant eye
JP6963820B2 (en) Line-of-sight detector
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP6548171B2 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
US11200646B2 (en) Compensation for deformation in head mounted display systems
WO2016115870A1 (en) Binocular ar head-mounted display device and information displaying method therefor
JP2010259605A (en) Visual line measuring device and visual line measuring program
JP2016173313A (en) Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program
JP6452235B2 (en) Face detection method, face detection device, and face detection program
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP2019097675A (en) Sight line detection calibration method, system and computer program
KR100982171B1 (en) The System for Capturing 2D Facial Image
JP7046347B2 (en) Image processing device and image processing method
JP6346018B2 (en) Eye measurement system, eye detection system, eye measurement method, eye measurement program, eye detection method, and eye detection program
JP6288770B2 (en) Face detection method, face detection system, and face detection program
JP2019128748A (en) Line-of-sight calibration data generation device, line-of-sight measurement apparatus, and program thereof
JP6780161B2 (en) Line-of-sight detection device and line-of-sight detection method
JP6452236B2 (en) Eyeball identification device and eyeball identification method
JP6430813B2 (en) Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus
JP2019021049A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180410

R150 Certificate of patent or registration of utility model

Ref document number: 6324119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250