JP2016224691A - Sight line calibration program, sight line calibration device, and sight line calibration method - Google Patents

Sight line calibration program, sight line calibration device, and sight line calibration method Download PDF

Info

Publication number
JP2016224691A
JP2016224691A JP2015110268A JP2015110268A JP2016224691A JP 2016224691 A JP2016224691 A JP 2016224691A JP 2015110268 A JP2015110268 A JP 2015110268A JP 2015110268 A JP2015110268 A JP 2015110268A JP 2016224691 A JP2016224691 A JP 2016224691A
Authority
JP
Japan
Prior art keywords
line
sight
user
height
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015110268A
Other languages
Japanese (ja)
Other versions
JP6468078B2 (en
Inventor
上村 拓也
Takuya Kamimura
拓也 上村
浩寧 吉川
Hiroyasu Yoshikawa
浩寧 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015110268A priority Critical patent/JP6468078B2/en
Publication of JP2016224691A publication Critical patent/JP2016224691A/en
Application granted granted Critical
Publication of JP6468078B2 publication Critical patent/JP6468078B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a sight line calibration program, a sight line calibration device, and a sight line calibration method for improving sight line detection accuracy.SOLUTION: A sight line calibration program causes a computer to execute processing of: detecting a user's sight line; detecting height of the user's eyes; and calibrating the detected sight line according to the detected height of the eyes, using a sight line calibration model corresponding to the height of eyes.SELECTED DRAWING: Figure 9

Description

本件は、視線キャリブレーションプログラム、視線キャリブレーション装置、および視線キャリブレーション方法に関する。   The present disclosure relates to a line-of-sight calibration program, a line-of-sight calibration apparatus, and a line-of-sight calibration method.

視線検出において、コンピュータが検出した視線と、実際の視線との間には、眼球形状の個人差などに起因して、個人ごとの誤差が現れる。そこで、キャリブレーションを行うことで視線を補正する技術が開示されている(例えば、特許文献1参照)。   In line-of-sight detection, an error for each individual appears between the line of sight detected by the computer and the actual line of sight due to individual differences in eyeball shape. Therefore, a technique for correcting the line of sight by performing calibration is disclosed (for example, see Patent Document 1).

特開2006−285715号公報JP 2006-285715 A

しかしながら、個人ごとにキャリブレーションを行う技術は、不特定多数が利用する装置で用いることが困難である。一方、キャリブレーションを行わない場合には、視線検出精度が低下する。   However, it is difficult to use a technique for performing calibration for each individual in an apparatus used by an unspecified number. On the other hand, when calibration is not performed, the line-of-sight detection accuracy decreases.

1つの側面では、本発明は、視線検出精度を向上させることができる視線キャリブレーションプログラム、視線キャリブレーション装置、および視線キャリブレーション方法を提供することを目的とする。   In one aspect, an object of the present invention is to provide a gaze calibration program, a gaze calibration apparatus, and a gaze calibration method that can improve gaze detection accuracy.

1つの態様では、視線キャリブレーションプログラムは、コンピュータに、ユーザの視線を検出する処理と、前記ユーザの目の高さを検出する処理と、目の高さに応じた視線のキャリブレーションモデルを用い、前記検出された目の高さに応じて、前記検出された視線をキャリブレーションする処理と、を実行させる。   In one aspect, the line-of-sight calibration program uses, on a computer, a process for detecting a user's line of sight, a process for detecting the eye height of the user, and a line-of-sight calibration model corresponding to the eye height. And a process of calibrating the detected line of sight according to the detected eye height.

視線検出精度を向上させることができる。   The line-of-sight detection accuracy can be improved.

(a)および(b)は視線角度変化を表す図である。(A) And (b) is a figure showing a gaze angle change. 視線認識装置の概略図である。It is the schematic of a gaze recognition apparatus. 誤差について説明する図である。It is a figure explaining an error. (a)および(b)は誤差について例示する図である。(A) And (b) is a figure which illustrates about an error. 目視対象が垂直面をなす場合の視線角度変化について説明するための図である。It is a figure for demonstrating the gaze angle change in case a visual object makes | forms a perpendicular surface. 目視対象が水平面をなす場合の視線角度変化について説明するための図である。It is a figure for demonstrating the gaze angle change in case a visual object makes a horizontal surface. 目視対象が傾斜する場合の視線角度変化について説明するための図である。It is a figure for demonstrating the gaze angle change in case a visual object inclines. 実施例1に係る視線キャリブレーション装置の構成を表すブロック図である。1 is a block diagram illustrating a configuration of a line-of-sight calibration apparatus according to Embodiment 1. FIG. 視線キャリブレーション装置の動作の一例を表すフローチャートである。It is a flowchart showing an example of operation | movement of a visual line calibration apparatus. (a)はデータベースに格納されている補正係数のテーブルを例示する図であり、(b)は視線キャリブレーションのイメージ図である。(A) is a figure which illustrates the table of the correction coefficient stored in the database, (b) is an image figure of a line-of-sight calibration. 変形例1に係る視線キャリブレーションのイメージ図である。It is an image figure of the visual line calibration which concerns on the modification 1. FIG. 変形例2に係るフローチャートの一例である。10 is an example of a flowchart according to Modification 2. 広角カメラの光軸が、ユーザの平均的な顔位置よりも低い位置から水平方向よりも斜め上方に向いている例である。This is an example in which the optical axis of the wide-angle camera is directed obliquely upward from the horizontal direction from a position lower than the average face position of the user. 実施例2に係る視線キャリブレーション装置の構成を表すブロック図である。6 is a block diagram illustrating a configuration of a line-of-sight calibration apparatus according to Embodiment 2. FIG. (a)〜(d)は広角画像であり、(e)は顔輪郭の重心位置と、y軸方向の差分と、狭角カメラ30と顔との距離との対応関係を表すテーブルである。(A)-(d) is a wide-angle image, (e) is a table showing the correspondence of the gravity center position of a face outline, the difference of a y-axis direction, and the distance of the narrow-angle camera 30 and a face. 制御部のハードウェア構成を説明するためのブロック図である。It is a block diagram for demonstrating the hardware constitutions of a control part.

実施例の説明に先立って、撮像装置を備えた視線検出装置の概要について説明する。視線検出装置は、撮像装置を用いて、ユーザの視線方向を非接触で認識する装置である。例えば、図1(a)で例示するように、ユーザと正対する方向から照射された赤外LEDに対してユーザの眼球内(例えば瞳孔または虹彩)に生じる角膜反射像(プルキエニ像)を基準点とする。この基準点と、瞳孔重心などの注目点との相対位置(画素)変化を検出することによって、視線角度変化を算出することができる。例えば、図1(b)の例では、図1(a)を基準位置とした場合に視線が下方に向いていることが検出され、その角度を算出することができる。   Prior to the description of the embodiments, an outline of a line-of-sight detection device including an imaging device will be described. The line-of-sight detection device is a device that recognizes a user's line-of-sight direction in a non-contact manner using an imaging device. For example, as illustrated in FIG. 1A, a reference point is a corneal reflection image (Purquieni image) generated in the user's eyeball (for example, pupil or iris) with respect to the infrared LED irradiated from the direction facing the user. And By detecting a change in the relative position (pixel) between this reference point and a point of interest such as the center of gravity of the pupil, the change in the line-of-sight angle can be calculated. For example, in the example of FIG. 1B, it is detected that the line of sight is directed downward when FIG. 1A is used as the reference position, and the angle can be calculated.

図2は、視線検出装置200の概略図である。図2で例示するように、視線検出装置200は、例えば、広角カメラ201および狭角カメラ202を備える。広角カメラ201は、広角視野を有し、ユーザの顔全体を撮像する。なお、広角カメラ201の位置は固定されているため、当該広角視野も固定されている。狭角カメラ202は、ズーム機構による狭角視野を有し、顔パーツ(目領域)を撮像する。狭角カメラ202は、撮像方向可動式であって、目領域を追従する。なお、目領域とは、少なくとも片方の目を含む、顔の少なくとも一部の領域のことである。   FIG. 2 is a schematic diagram of the line-of-sight detection device 200. As illustrated in FIG. 2, the line-of-sight detection device 200 includes, for example, a wide angle camera 201 and a narrow angle camera 202. The wide-angle camera 201 has a wide-angle field of view and images the entire face of the user. Since the position of the wide-angle camera 201 is fixed, the wide-angle field of view is also fixed. The narrow-angle camera 202 has a narrow-angle field of view by a zoom mechanism and images a face part (eye region). The narrow-angle camera 202 is movable in the imaging direction and follows the eye area. The eye region is at least a part of the face including at least one eye.

視線検出装置200では、広角カメラ201で顔輪郭位置、顔輪郭重心位置(x,y)などを検出することによって、狭角カメラ202が目領域を検出することができる撮像方向を決定する。狭角カメラ202をこの撮像方向に動かすことによって、目領域を高画素で撮像できるようになる。それにより、高い視線検出分解能を得ることができる。すなわち、視線検出装置200では、広角カメラ201および狭角カメラ202の連動により、視線を検出することができる。視線を検出できれば、目視対象における目視位置を検出することができる。   In the line-of-sight detection device 200, the wide-angle camera 201 detects the face contour position, the face contour barycentric position (x, y), and the like, thereby determining the imaging direction in which the narrow-angle camera 202 can detect the eye region. By moving the narrow-angle camera 202 in this imaging direction, the eye region can be imaged with high pixels. Thereby, high gaze detection resolution can be obtained. In other words, the line-of-sight detection device 200 can detect the line of sight by interlocking the wide-angle camera 201 and the narrow-angle camera 202. If the line of sight can be detected, the visual position in the visual target can be detected.

しかしながら、視線検出装置200が検出した視線と、実際の視線との間には、誤差が生じることがある。そこで、視線をキャリブレーションすることが考えられる。例えば、図3で例示するように、目視対象の上端y1と下端y2とをユーザが順に目視した場合について検討する。この場合のキャリブレーションは、例えば、瞳孔中の基準点に対する注目点の変化量(画素)と、視線角度変化量(度)との相関を求める作業のことである。この相関関係を、以下、キャリブレーションモデルと称する。視線検出の際に、キャリブレーションモデルに基づいて、ユーザまでの距離も勘案することで、目視する平面における目視位置(x,y)を算出することができる。しかしながら、不特定多数が利用する装置では、個人ごとにキャリブレーションを行う技術を利用することが困難である。一方で、キャリブレーションをしない場合には、誤差が大きくなる。   However, an error may occur between the visual line detected by the visual line detection device 200 and the actual visual line. Therefore, it is conceivable to calibrate the line of sight. For example, as illustrated in FIG. 3, consider a case where the user looks at the upper end y1 and the lower end y2 of the visual target in order. The calibration in this case is, for example, an operation for obtaining a correlation between a change amount (pixel) of the target point with respect to a reference point in the pupil and a change amount (degree) of the line-of-sight angle. This correlation is hereinafter referred to as a calibration model. When the line of sight is detected, the viewing position (x, y) on the viewing plane can be calculated by considering the distance to the user based on the calibration model. However, it is difficult for an apparatus used by an unspecified majority to use a technique for performing calibration for each individual. On the other hand, the error increases when calibration is not performed.

図4(a)および図4(b)は、誤差について例示する図である。まず、図4(a)で例示するように、ユーザが目視する平面が垂直面である場合、目視対象の上端y1から下端y2までの目視対象物を目視した場合の視線角度の変化量は、身長差(目の高さ差)に起因して相違する。例えば、背の高いユーザの視線角度の変化量αと、背の低いユーザの視線角度の変化量βとの間には、相違が生じる。特に、図4(b)で例示するように、目視対象が水平面である場合、y1(奥端)からy2(手前端)までの同じ距離に対して、目の高さ差に起因する視線角度変化量は、垂直面に対する視線角度変化量よりも大きくなる。そこで、以下の実施例では、視線検出精度を向上させることができる視線キャリブレーション装置、視線キャリブレーション方法、および視線キャリブレーションプログラムについて説明する。   FIG. 4A and FIG. 4B are diagrams illustrating errors. First, as illustrated in FIG. 4A, when the plane viewed by the user is a vertical plane, the amount of change in the line-of-sight angle when viewing the visual object from the upper end y1 to the lower end y2 of the visual object is Different due to height difference (eye height difference). For example, there is a difference between the change amount α of the gaze angle of the tall user and the change amount β of the gaze angle of the short user. In particular, as illustrated in FIG. 4B, when the object to be viewed is a horizontal plane, the line-of-sight angle caused by the difference in eye height with respect to the same distance from y1 (back end) to y2 (front end) The amount of change is larger than the amount of line-of-sight angle change with respect to the vertical plane. In the following embodiments, a line-of-sight calibration apparatus, a line-of-sight calibration method, and a line-of-sight calibration program that can improve the line-of-sight detection accuracy will be described.

まず、実施例1に係る視線キャリブレーションの概略について説明する。図5は、目視対象が垂直面をなす場合の視線角度変化について説明するための図である。図5で例示するように、目視対象の高さをhとする。具体的には、高さhは、床から目視対象の下端までの距離である。目視対象の垂直方向の幅(視線変化幅)をHとする。ユーザから目視対象までの距離をDとする。具体的には、距離Dは、ユーザの目の目視対象側の先端から目視対象までの距離である。ユーザの目の高さをYとする。具体的には、高さYは、床からユーザの目の目視対象側の先端までの距離である。視線変化幅Hに対する、ユーザの視線角度変化量をθとする。視線角度変化量θのうち、水平よりも下側をθ1とし、上側をθ2とする。   First, an outline of the line-of-sight calibration according to the first embodiment will be described. FIG. 5 is a diagram for explaining a change in the line-of-sight angle when the visual target forms a vertical plane. As illustrated in FIG. 5, the height of the visual object is set to h. Specifically, the height h is the distance from the floor to the lower end of the visual target. Let H be the vertical width (line-of-sight change width) of the visual target. Let D be the distance from the user to the visual target. Specifically, the distance D is a distance from the tip of the user's eyes on the side of the visual object to the visual object. Let Y be the height of the user's eyes. Specifically, the height Y is the distance from the floor to the tip of the user's eyes on the visual target side. A user's line-of-sight angle change amount with respect to the line-of-sight change width H is θ. Of the line-of-sight angle change amount θ, the lower side than the horizontal is θ1, and the upper side is θ2.

視線角度変化量θ1のラジアン値は、下記式(1)で表すことができる。
θ1(rad)=arctan(Y−h)/D (1)
上記式(1)の角度値は、下記式(2)で表すことができる。
θ1(deg)=θ1(rad)×180/π (2)
視線角度変化量θ2のラジアン値は、下記式(3)で表すことができる。
θ2(rad)=arctan(h+H−Y)/D (3)
上記式(3)の角度値は、下記式(4)で表すことができる。
θ2(deg)=θ2(deg)×180/π (4)
視線角度変化量θは、下記式(5)で表すことができる。
θ=θ1+θ2 (5)
The radian value of the line-of-sight angle change amount θ1 can be expressed by the following formula (1).
θ1 (rad) = arctan (Y−h) / D (1)
The angle value of the above formula (1) can be expressed by the following formula (2).
θ1 (deg) = θ1 (rad) × 180 / π (2)
The radian value of the line-of-sight angle change amount θ2 can be expressed by the following formula (3).
θ2 (rad) = arctan (h + H−Y) / D (3)
The angle value of the above formula (3) can be expressed by the following formula (4).
θ2 (deg) = θ2 (deg) × 180 / π (4)
The line-of-sight angle change amount θ can be expressed by the following formula (5).
θ = θ1 + θ2 (5)

一例として、高さh=100cm、視線変化幅H=100cm、距離D=200cm、高さY=170cmであるとする。この場合、θ=θ1+θ2=19.29+8.531=27.82度となる。高さY=150cmであるとすると、θ=θ1+θ2=11.31+16.7=28.01度となる。このように、ユーザの身長差に応じて、視線角度変化量θに差異が生じる。   As an example, it is assumed that the height h = 100 cm, the line-of-sight change width H = 100 cm, the distance D = 200 cm, and the height Y = 170 cm. In this case, θ = θ1 + θ2 = 19.29 + 8.531 = 27.82. If the height Y = 150 cm, then θ = θ1 + θ2 = 11.31 + 16.7 = 28.01 degrees. Thus, a difference occurs in the line-of-sight angle change amount θ according to the height difference of the user.

図6は、目視対象が水平面をなす場合の視線角度変化について説明するための図である。図6で例示するように、目視対象の高さをhとする。具体的には、高さhは、床から目視対象までの距離である。ユーザから見た目視対象の奥行き方向の幅(視線変化幅)をHとする。ユーザから目視対象までの距離をDとする。具体的には、距離Dは、水平方向において、ユーザの目の目視対象側の先端から目視対象までの距離である。ユーザの目の高さをYとする。具体的には、高さYは、床からユーザの目の目視対象側の先端までの距離である。視線変化幅Hに対する、ユーザの視線角度変化量をθとする。鉛直下方から目視対象の奥端までの範囲におけるユーザの視線角度変化量をθ1とする。鉛直下方から目視対象の手前端までの範囲におけるユーザの視線角度変化量をθ2とする。   FIG. 6 is a diagram for explaining a change in the line-of-sight angle when the visual target is a horizontal plane. As illustrated in FIG. 6, the height of the object to be viewed is h. Specifically, the height h is the distance from the floor to the visual object. Let H be the width in the depth direction (line-of-sight change width) of the visual target viewed from the user. Let D be the distance from the user to the visual target. Specifically, the distance D is a distance from the tip of the user's eyes on the visual object side to the visual object in the horizontal direction. Let Y be the height of the user's eyes. Specifically, the height Y is the distance from the floor to the tip of the user's eyes on the visual target side. A user's line-of-sight angle change amount with respect to the line-of-sight change width H is θ. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the far end of the visual object is defined as θ1. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the front end of the visual object is defined as θ2.

視線角度変化量θ1のラジアン値は、下記式(6)で表すことができる。
θ1(rad)=arctan((H+D)/(Y−h)) (6)
上記式(6)の角度値は、下記式(7)で表すことができる。
θ1(deg)=θ1(rad)×180/π (7)
視線角度変化量θ2のラジアン値は、下記式(8)で表すことができる。
θ2(rad)=arctan(D/(Y−h)) (8)
上記式(8)の角度値は、下記式(9)で表すことができる。
θ2(deg)=θ2(deg)×180/π (9)
視線角度変化量θは、下記式(10)で表すことができる。
θ=θ1−θ2 (10)
The radian value of the line-of-sight angle change amount θ1 can be expressed by the following formula (6).
θ1 (rad) = arctan ((H + D) / (Y−h)) (6)
The angle value of the above formula (6) can be expressed by the following formula (7).
θ1 (deg) = θ1 (rad) × 180 / π (7)
The radian value of the line-of-sight angle change amount θ2 can be expressed by the following formula (8).
θ2 (rad) = arctan (D / (Y−h)) (8)
The angle value of the above formula (8) can be expressed by the following formula (9).
θ2 (deg) = θ2 (deg) × 180 / π (9)
The line-of-sight angle change amount θ can be expressed by the following formula (10).
θ = θ1-θ2 (10)

一例として、高さh=70cm、視線変化幅H=100cm、距離D=70cm、高さY=170cmであるとする。この場合、θ=θ1−θ2=59.53−34.99=24.54度となる。高さY=140cmであるとすると、θ=θ1−θ2=67.62−45=22.62度となる。このように、ユーザの身長差に応じて、視線角度変化量θに差異が生じる。   As an example, assume that height h = 70 cm, line-of-sight change width H = 100 cm, distance D = 70 cm, and height Y = 170 cm. In this case, θ = θ1−θ2 = 59.53−34.99 = 24.54 degrees. If the height Y is 140 cm, then θ = θ1−θ2 = 67.62−45 = 22.22 degrees. Thus, a difference occurs in the line-of-sight angle change amount θ according to the height difference of the user.

図7は、目視対象がユーザに対向しつつ水平方向および垂直方向に対して傾斜する場合の視線角度変化について説明するための図である。図7で例示するように、目視対象の高さをhとする。具体的には、高さhは、床から目視対象の下端までの距離である。目視対象の奥行き方向の幅(視線変化幅)をHとする。目視対象が水平面となす角度をθ3とする。水平面に対する目視対象の高低差をdとする。ユーザから目視対象までの距離をDとする。具体的には、距離Dは、水平方向において、ユーザの目の目視対象側の先端から目視対象の手前端までの距離である。ユーザの目の高さをYとする。具体的には、高さYは、床からユーザの目の目視対象側の先端までの距離である。視線変化幅Hに対する、ユーザの視線角度変化量をθとする。鉛直下方から目視対象の奥端までの範囲におけるユーザの視線角度変化量をθ1とする。鉛直下方から目視対象の手前端までの範囲におけるユーザの視線角度変化量をθ2とする。   FIG. 7 is a diagram for explaining a change in the line-of-sight angle when the visual target is inclined with respect to the horizontal direction and the vertical direction while facing the user. As illustrated in FIG. 7, the height of the visual target is h. Specifically, the height h is the distance from the floor to the lower end of the visual target. Let H be the width of the visual target in the depth direction (gaze change width). The angle formed by the visual target with the horizontal plane is defined as θ3. Let d be the difference in height of the visual object relative to the horizontal plane. Let D be the distance from the user to the visual target. Specifically, the distance D is a distance from the front end of the user's eyes to the front side of the visual target in the horizontal direction. Let Y be the height of the user's eyes. Specifically, the height Y is the distance from the floor to the tip of the user's eyes on the visual target side. A user's line-of-sight angle change amount with respect to the line-of-sight change width H is θ. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the far end of the visual object is defined as θ1. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the front end of the visual object is defined as θ2.

視線角度変化量θ1のラジアン値は、下記式(11)で表すことができる。
θ1(rad)=arctan((H×cosθ3)+D)/(Y−h−d) (11)
上記式(11)の角度値は、下記式(12)で表すことができる。
θ1(deg)=θ1(rad)×180/π (12)
視線角度変化量θ2のラジアン値は、下記式(13)で表すことができる。
θ2(rad)=arctan(D/(Y−h)) (13)
上記式(13)の角度値は、下記式(14)で表すことができる。
θ2(deg)=θ2(deg)×180/π (14)
視線角度変化量θは、下記式(15)で表すことができる。
θ=θ1−θ2 (15)
図7の場合においても、ユーザの身長差に応じて、視線角度変化量θに差異が生じる。
The radian value of the line-of-sight angle change amount θ1 can be expressed by the following formula (11).
θ1 (rad) = arctan ((H × cos θ3) + D) / (Y−h−d) (11)
The angle value of the above formula (11) can be expressed by the following formula (12).
θ1 (deg) = θ1 (rad) × 180 / π (12)
The radian value of the line-of-sight angle change amount θ2 can be expressed by the following formula (13).
θ2 (rad) = arctan (D / (Y−h)) (13)
The angle value of the above formula (13) can be expressed by the following formula (14).
θ2 (deg) = θ2 (deg) × 180 / π (14)
The line-of-sight angle change amount θ can be expressed by the following formula (15).
θ = θ1-θ2 (15)
Also in the case of FIG. 7, a difference occurs in the line-of-sight angle change amount θ according to the height difference of the user.

本実施例においては、ユーザの立ち位置が定められており、図5〜図7で説明した距離Dは、既知の固定値であるものとする。この場合において、あらかじめ、基準の目の高さにおける視線の初期キャリブレーションモデルを作成しておく。具体的には、代表者(例えば目の高さ=170cm)について、瞳孔中の基準点に対する注目点の変化量(画素)と、目視対象に対する視線角度と、との相関関係を初期キャリブレーションモデルとして作成しておく。初期キャリブレーションモデルは、各変化量と各視線角度とを保持するマップやテーブルなどであってもよく、変化量から視線角度を算出するための数式などであってもよい。図5の例では、目視対象の上端から下端までの視線角度変化量(角度)を用いる。図6および図7の例では、目視対象の奥端から手前端までの視線角度変化量(角度)を用いる。   In this embodiment, the user's standing position is determined, and the distance D described with reference to FIGS. 5 to 7 is a known fixed value. In this case, an initial line-of-sight calibration model at the reference eye height is created in advance. Specifically, for a representative (for example, eye height = 170 cm), an initial calibration model is used to calculate a correlation between a change amount (pixel) of a target point with respect to a reference point in the pupil and a line-of-sight angle with respect to a visual target. Create as. The initial calibration model may be a map or table that holds each change amount and each line-of-sight angle, or may be a mathematical formula for calculating the line-of-sight angle from the amount of change. In the example of FIG. 5, the line-of-sight angle change amount (angle) from the upper end to the lower end of the visual target is used. In the example of FIG. 6 and FIG. 7, the line-of-sight angle change amount (angle) from the back end to the front end of the visual target is used.

本実施例においては、さらに、視線検出対象のユーザの目の高さと上記代表者の目の高さとの差と、上記初期キャリブレーションモデルとを用いて、視線をキャリブレーションする。例えば、目の高さ差を用いて初期キャリブレーションモデルをキャリブレーションし、得られたキャリブレーションモデルを用いて視線をキャリブレーションする。さらに、得られた視線を用いて、目視対象における目視位置(x,y)を算出する。本実施例によれば、代表者に対する目の高さ差を検出できれば、個人ごとにキャリブレーションモデルを作成しなくてもよい。また、個人ごとにキャリブレーションモデルを作成する場合と比較して、視線検出精度が向上する。以下、具体例について説明する。   In this embodiment, the line of sight is further calibrated using the difference between the height of the eye of the user who is the line of sight detection target and the eye of the representative and the initial calibration model. For example, the initial calibration model is calibrated using the eye height difference, and the line of sight is calibrated using the obtained calibration model. Furthermore, the visual position (x, y) in the visual target is calculated using the obtained line of sight. According to this embodiment, it is not necessary to create a calibration model for each individual as long as the eye height difference with respect to the representative can be detected. In addition, the line-of-sight detection accuracy is improved as compared with the case where a calibration model is created for each individual. Hereinafter, specific examples will be described.

図8は、実施例1に係る視線キャリブレーション装置100の構成を表すブロック図である。図8で例示するように、視線キャリブレーション装置100は、モニタ10、広角カメラ20、狭角カメラ30、赤外LED40、制御部50などを備える。制御部50は、顔輪郭検出部51、高さ差算出部52、狭角カメラ制御部53、目領域検出部54、視線換算部55、目視位置算出部56、アプリ制御部57、データベース58などを備える。   FIG. 8 is a block diagram illustrating the configuration of the line-of-sight calibration apparatus 100 according to the first embodiment. As illustrated in FIG. 8, the line-of-sight calibration apparatus 100 includes a monitor 10, a wide-angle camera 20, a narrow-angle camera 30, an infrared LED 40, a control unit 50, and the like. The control unit 50 includes a face contour detection unit 51, a height difference calculation unit 52, a narrow-angle camera control unit 53, an eye area detection unit 54, a line-of-sight conversion unit 55, a visual position calculation unit 56, an application control unit 57, a database 58, and the like. Is provided.

モニタ10は、LCDなどの表示装置であり、ユーザの目視対象である。広角カメラ20は、広角視野を有し、モニタ10の前に立ち寄るユーザの顔全体を撮像する。なお、広角カメラ20の位置は固定されているため、当該広角視野も固定されている。広角カメラ20は、一例として、マイクロビジョン製のUSBカメラ(MCM:4302)を用いることができる。なお、画素は、一例としてVGA(640×480pix)である。レンズ画角は、一例として、V/H/D=23/30/37.5度である。   The monitor 10 is a display device such as an LCD and is a user's visual target. The wide-angle camera 20 has a wide-angle visual field, and images the entire face of the user who stops in front of the monitor 10. Since the position of the wide-angle camera 20 is fixed, the wide-angle field of view is also fixed. As an example of the wide-angle camera 20, a USB camera (MCM: 4302) manufactured by Microvision can be used. Note that the pixel is, for example, VGA (640 × 480 pixels). As an example, the lens angle of view is V / H / D = 23/30 / 37.5 degrees.

狭角カメラ30は、ズーム機構による狭角視野を有し、広角カメラ20の視野内にフレームインしたユーザの顔のパーツ(目領域)の画像を取得する。狭角カメラ30は、撮像方向可動式であって、撮像方向を変更することによって目領域に追従することができる。狭角カメラ30は、例えば、PTZ(Pan Tilt Zoom:パンチルトズーム)カメラであり、一例として、SONY(登録商標)製のSNC−Ep580を用いることができる。なお、画角は、可変である。F値は、1.6(wide)〜3.5(tele)である。赤外LED40は、赤外光をユーザに対して照射する。   The narrow-angle camera 30 has a narrow-angle field of view by a zoom mechanism, and acquires an image of a part (eye region) of the user's face that is framed in the field of view of the wide-angle camera 20. The narrow-angle camera 30 is movable in the imaging direction, and can follow the eye area by changing the imaging direction. The narrow-angle camera 30 is, for example, a PTZ (Pan Tilt Zoom) camera, and an SNC-Ep580 manufactured by SONY (registered trademark) can be used as an example. Note that the angle of view is variable. The F value is 1.6 (wide) to 3.5 (tele). The infrared LED 40 irradiates the user with infrared light.

以下、図9のフローチャートを参照しつつ、視線キャリブレーション装置100の動作について説明する。図9のフローチャートは、視線キャリブレーション装置100の動作の一例を表す。顔輪郭検出部51は、広角カメラ20から広角画像をキャプチャする(ステップS1)。次に、顔輪郭検出部51は、顔輪郭領域を検出する(ステップS2)。また、顔輪郭検出部51は、顔輪郭領域のいずれかの幅(縦または横)を算出し、顔輪郭領域の重心、両目の中心などの注目点を算出する。   Hereinafter, the operation of the line-of-sight calibration apparatus 100 will be described with reference to the flowchart of FIG. The flowchart in FIG. 9 represents an example of the operation of the line-of-sight calibration apparatus 100. The face contour detection unit 51 captures a wide-angle image from the wide-angle camera 20 (step S1). Next, the face contour detection unit 51 detects a face contour region (step S2). Further, the face contour detection unit 51 calculates any width (vertical or horizontal) of the face contour region, and calculates attention points such as the center of gravity of the face contour region and the center of both eyes.

次に、高さ差算出部52は、算出された注目点を用いて、代表モデルの目の高さとユーザの目の高さとの差を算出する(ステップS3)。具体的には、距離Dが固定値であり、広角カメラ20の位置も固定されていることから、広角画像における注目点の位置から、ユーザの目の高さを算出することができる。高さ差算出部52は、この目の高さと、代表モデルの目の高さとの差を求めることで、目の高さ差を算出する。   Next, the height difference calculation unit 52 calculates the difference between the eye height of the representative model and the eye height of the user using the calculated attention point (step S3). Specifically, since the distance D is a fixed value and the position of the wide-angle camera 20 is also fixed, the height of the user's eyes can be calculated from the position of the point of interest in the wide-angle image. The height difference calculation unit 52 calculates the difference in eye height by obtaining the difference between the eye height and the eye height of the representative model.

次に、狭角カメラ制御部53は、狭角視野内にユーザの顔が所定の大きさで入るように、狭角カメラ30の角度、倍率などを制御する(ステップS4)。それにより、狭角カメラ30は、ユーザの目の領域を撮像することができる。次に、目領域検出部54は、狭角カメラ30から狭角画像をキャプチャする(ステップS5)。次に、目領域検出部54は、狭角画像において、目領域を検出する(ステップS6)。具体的には、目領域検出部54は、両目を含む輪郭枠を目領域として検出する。または、目領域検出部54は、顔輪郭検出部51から受け取った座標から、両目を含む輪郭枠を目領域として推定する。   Next, the narrow-angle camera control unit 53 controls the angle, magnification, and the like of the narrow-angle camera 30 so that the user's face enters the narrow-angle visual field with a predetermined size (step S4). Thereby, the narrow-angle camera 30 can capture an area of the user's eyes. Next, the eye area detection unit 54 captures a narrow-angle image from the narrow-angle camera 30 (step S5). Next, the eye area detection unit 54 detects an eye area in the narrow-angle image (step S6). Specifically, the eye area detection unit 54 detects an outline frame including both eyes as an eye area. Alternatively, the eye region detection unit 54 estimates a contour frame including both eyes as an eye region from the coordinates received from the face contour detection unit 51.

次に、視線換算部55は、目領域検出部54が検出した目領域において、目の内部を検出する(ステップS7)。次に、視線換算部55は、瞳孔重心と角膜反射重心との相対変化を算出する(ステップS8)。次に、視線換算部55は、データベース58に格納されている初期キャリブレーションモデルを参照し、算出された相対変化から視線角度を得る(ステップS9)。   Next, the line-of-sight conversion unit 55 detects the inside of the eye in the eye region detected by the eye region detection unit 54 (step S7). Next, the line-of-sight conversion unit 55 calculates a relative change between the pupil centroid and the corneal reflection centroid (step S8). Next, the line-of-sight conversion unit 55 refers to the initial calibration model stored in the database 58 and obtains the line-of-sight angle from the calculated relative change (step S9).

次に、視線換算部55は、得られた視線角度に対して、ステップS3で算出された目の高さ差を用いてキャリブレーションを行う(ステップS10)。図10(a)は、データベース58に格納されている補正係数のテーブルを例示する図であり、図6の目視対象が水平面をなす場合の視線角度変化に対応している。図10(a)で例示するように、代表者の目の高さの場合の補正係数を1とし、目の高さに応じて段階的に補正係数が設定されている。例えば、視線換算部55は、ステップS9で得られた視線角度に対して補正係数を掛け合わせる。図10(b)は、本実施例に係る視線キャリブレーションのイメージ図である。図10(b)で例示するように、本実施例においては、初期キャリブレーションモデルと、目の高さ差と、補正係数のテーブルとを用いて、視線をキャリブレーションする。   Next, the line-of-sight conversion unit 55 calibrates the obtained line-of-sight angle using the eye height difference calculated in step S3 (step S10). FIG. 10A is a diagram exemplifying a correction coefficient table stored in the database 58, and corresponds to a change in line-of-sight angle when the visual target in FIG. 6 forms a horizontal plane. As illustrated in FIG. 10A, the correction coefficient in the case of the representative eye height is set to 1, and the correction coefficient is set stepwise according to the eye height. For example, the line-of-sight conversion unit 55 multiplies the line-of-sight angle obtained in step S9 by a correction coefficient. FIG. 10B is an image diagram of line-of-sight calibration according to the present embodiment. As illustrated in FIG. 10B, in this embodiment, the line of sight is calibrated using the initial calibration model, the eye height difference, and the correction coefficient table.

次に、目視位置算出部56は、ステップS10で得られた視線角度と、距離Dと、ステップS3で算出した目の高さから、モニタ10における目視位置(x,y)を算出する(ステップS11)。アプリ制御部57は、目視位置算出部56が算出した目視位置に基づいて、モニタ10を制御する(ステップS12)。例えば、アプリ制御部57は、モニタ10の表示内容を変更する。具体的には、アプリ制御部57は、モニタ10において、詳細情報の展開、表示切換、スクロールなどを行う。   Next, the visual position calculation unit 56 calculates the visual position (x, y) on the monitor 10 from the line-of-sight angle obtained in Step S10, the distance D, and the eye height calculated in Step S3 (Step S10). S11). The application control unit 57 controls the monitor 10 based on the visual position calculated by the visual position calculation unit 56 (step S12). For example, the application control unit 57 changes the display content of the monitor 10. Specifically, the application control unit 57 performs detailed information expansion, display switching, scrolling, and the like on the monitor 10.

本実施例によれば、代表者について予め作成しておいた初期キャリブレーションモデルを用いることによって、個人ごとのキャリブレーションモデルを作成する手間が省ける。さらに、目の高さ差と初期キャリブレーションモデルとを用いて視線をキャリブレーションすることによって、視線検出精度を向上させることができる。その結果、目視対象における目視位置の検出精度を向上させることができる。   According to the present embodiment, by using the initial calibration model created in advance for the representative, the labor of creating a calibration model for each individual can be saved. Furthermore, the line-of-sight detection accuracy can be improved by calibrating the line of sight using the eye height difference and the initial calibration model. As a result, the detection accuracy of the visual position in the visual object can be improved.

(変形例1)
上記例では、図10(a)で例示するようなテーブルを用いたが、補正係数を算出するための数式を用いてもよい。例えば、代表者の目の高さの場合の補正係数が1となり、目の高さ差に応じて補正係数が変化するような数式を用いることができる。例えば、視線換算部55は、ステップS9で得られた視線角度に対して、ステップS3で得られた目の高さ差と上記数式とから得られる補正係数を掛け合わせる。図11は、変形例1に係る視線キャリブレーションのイメージ図である。図11で例示するように、本変形例においては、初期キャリブレーションモデルと、目の高さ差と、補正係数を算出するための数式とを用いて、視線をキャリブレーションする。変形例1によれば、テーブルなどの容量を削減することができる。
(Modification 1)
In the above example, the table illustrated in FIG. 10A is used, but a mathematical formula for calculating a correction coefficient may be used. For example, it is possible to use a mathematical formula in which the correction coefficient in the case of the eye height of the representative is 1, and the correction coefficient changes according to the eye height difference. For example, the line-of-sight conversion unit 55 multiplies the line-of-sight angle obtained in step S9 by the eye height difference obtained in step S3 and the correction coefficient obtained from the above formula. FIG. 11 is an image diagram of line-of-sight calibration according to the first modification. As illustrated in FIG. 11, in this modification, the line of sight is calibrated using an initial calibration model, an eye height difference, and a mathematical expression for calculating a correction coefficient. According to the first modification, the capacity of the table or the like can be reduced.

(変形例2)
なお、上記例では、基準の目の高さとして1種類だけ用意したが、段階的に複数設けられた基準の目の高さにおけるキャリブレーションモデルを作成しておいてもよい。図12は、この場合に実行されるフローチャートを例示する。図9のフローチャートと異なる点は、ステップS3、ステップS9およびステップS10の代わりに、ステップS13、ステップS19およびステップS20が実行される点である。以下、ステップS13、ステップS19およびステップS20について説明する。
(Modification 2)
In the above example, only one type of reference eye height is prepared. However, a plurality of reference eye heights may be prepared in stages. FIG. 12 illustrates a flowchart executed in this case. The difference from the flowchart of FIG. 9 is that step S13, step S19 and step S20 are executed instead of step S3, step S9 and step S10. Hereinafter, step S13, step S19, and step S20 will be described.

ステップS2の実行後、高さ差算出部52は、算出された注目点を用いて、ユーザの目の高さを算出する(ステップS13)。具体的には、距離Dが固定値であり、広角カメラ20の位置も固定されていることから、広角画像における注目点の位置から、ユーザの目の高さを算出する。   After execution of step S2, the height difference calculation unit 52 calculates the height of the user's eyes using the calculated attention point (step S13). Specifically, since the distance D is a fixed value and the position of the wide-angle camera 20 is also fixed, the height of the user's eyes is calculated from the position of the point of interest in the wide-angle image.

ステップS8の実行後、視線換算部55は、データベース58に格納されている複数のキャリブレーションモデルから、ステップS13で得られた目の高さに対応するモデルを選択する(ステップS19)。例えば、視線換算部55は、ステップS13で得られた目の高さに最も近い基準の目の高さのキャリブレーションモデルを選択する。次に、視線換算部55は、選択したキャリブレーションモデルを用いて、ステップS8で算出された相対変化から視線角度を得る(ステップS20)。変形例2によれば、複数のキャリブレーションモデルを用いることができることから、視線検出精度が向上する。   After execution of step S8, the line-of-sight conversion unit 55 selects a model corresponding to the eye height obtained in step S13 from a plurality of calibration models stored in the database 58 (step S19). For example, the line-of-sight conversion unit 55 selects a calibration model having a reference eye height closest to the eye height obtained in step S13. Next, the line-of-sight conversion unit 55 obtains a line-of-sight angle from the relative change calculated in step S8 using the selected calibration model (step S20). According to the second modification, since a plurality of calibration models can be used, the line-of-sight detection accuracy is improved.

実施例1では、距離Dが固定であることが前提であったが、広角カメラ20が取得する広角画像を用いて距離Dを算出してもよい。広角画像を用いて距離Dを算出する場合には、ユーザの狭角カメラ30に対する前後方向の移動が広角画像に現れることが好ましい。そこで、広角カメラ20が設置される高さは、ユーザの平均的な顔位置に対してずれていることが好ましい。例えば、広角カメラ20の光軸は、ユーザの平均的な顔位置よりも高い位置から水平方向よりも斜め下方に向いている、または、ユーザの平均的な顔位置よりも低い位置から水平方向よりも斜め上方(あおり角)に向いていることが好ましい。なお、ユーザの体軸が垂直からずれている場合には、当該体軸に対して斜め上方または斜め下方に向いていることが好ましい。目領域を検出するためには、広角カメラ20は、ユーザの平均的な顔位置よりも低い位置からユーザに対して斜め上方(あおり角)に向いていることが好ましい。   In the first embodiment, it is assumed that the distance D is fixed, but the distance D may be calculated using a wide-angle image acquired by the wide-angle camera 20. When the distance D is calculated using a wide-angle image, it is preferable that the movement of the user in the front-rear direction with respect to the narrow-angle camera 30 appears in the wide-angle image. Therefore, it is preferable that the height at which the wide-angle camera 20 is installed is deviated from the average face position of the user. For example, the optical axis of the wide-angle camera 20 is oriented obliquely downward from the horizontal direction from a position higher than the user's average face position, or from a position lower than the user's average face position from the horizontal direction. Also, it is preferable that the angle is directed obliquely upward (tilt angle). When the user's body axis is deviated from vertical, it is preferable that the user body is oriented obliquely upward or obliquely downward with respect to the body axis. In order to detect the eye region, the wide-angle camera 20 is preferably directed obliquely upward (tilt angle) with respect to the user from a position lower than the average face position of the user.

図13は、広角カメラ20の光軸が、ユーザの平均的な顔位置よりも低い位置から水平方向よりも斜め上方に向いている例である。なお、広角カメラ20の光軸が水平方向よりも斜め上方を向いている場合と斜め下方を向いている場合とで、ユーザの広角カメラ20に対する前後方向の移動は、広角画像において逆になる。   FIG. 13 is an example in which the optical axis of the wide-angle camera 20 is directed obliquely upward from the horizontal direction from a position lower than the average face position of the user. Note that the movement of the user in the front-rear direction with respect to the wide-angle camera 20 is reversed in the wide-angle image depending on whether the optical axis of the wide-angle camera 20 is obliquely upward or downward in the horizontal direction.

図14は、実施例2に係る視線キャリブレーション装置100aの構成を表すブロック図である。図14で例示するように、視線キャリブレーション装置100aが視線キャリブレーション装置100と異なる点は、制御部50に、さらに距離算出部59が備わっている点である。   FIG. 14 is a block diagram illustrating the configuration of the line-of-sight calibration apparatus 100a according to the second embodiment. As illustrated in FIG. 14, the point of difference between the line-of-sight calibration apparatus 100 a and the line-of-sight calibration apparatus 100 is that the control unit 50 further includes a distance calculation unit 59.

距離算出部59は、顔輪郭検出部51が検出する注目点を以前のフレームと(例えばフレームごとに)比較することによって、広角画像における注目点の移動方向および移動量を算出する。例えば、距離算出部59は、広角画像における注目点の座標(x,y)の変化をフレームごとに検出することによって、広角画像における注目点の移動方向および移動量を算出する。   The distance calculation unit 59 calculates the movement direction and the movement amount of the attention point in the wide-angle image by comparing the attention point detected by the face contour detection unit 51 with the previous frame (for example, for each frame). For example, the distance calculation unit 59 calculates the moving direction and the moving amount of the attention point in the wide-angle image by detecting the change in the coordinates (x, y) of the attention point in the wide-angle image for each frame.

さらに、距離算出部59は、顔輪郭検出部51が検出する輪郭幅および注目点をフレームごとに比較することによって、ユーザの前後方向の移動方向および移動量を算出する。前後方向とは、ユーザが広角カメラ20に近づく方向および広角カメラ20から離れる方向である。図15(a)〜図15(d)は、体軸が鉛直方向を向いていると仮定し、広角カメラ20の光軸をユーザの平均的な顔位置よりも低い位置から水平方向よりも斜め上方(10°)に設定した場合の広角画像(静止画像)である。図15(a)〜図15(d)は、広角カメラ20と顔との距離が1.5m、2m、2.5m、3mである場合の静止画像である。   Further, the distance calculation unit 59 calculates the movement direction and movement amount of the user in the front-rear direction by comparing the contour width and the point of interest detected by the face contour detection unit 51 for each frame. The front-rear direction is a direction in which the user approaches the wide-angle camera 20 and a direction away from the wide-angle camera 20. 15A to 15D, assuming that the body axis is oriented in the vertical direction, the optical axis of the wide-angle camera 20 is inclined from a position lower than the average face position of the user from the horizontal direction. It is a wide-angle image (still image) when set upward (10 °). 15A to 15D are still images when the distance between the wide-angle camera 20 and the face is 1.5 m, 2 m, 2.5 m, and 3 m.

図15(a)〜図15(d)で例示するように、ユーザが広角カメラ20から離れると、顔の位置が下方に移動している。そこで、例えば、顔の輪郭の注目点(重心、両目の中心など)の上下方向(y軸)の変化量と、広角カメラ20と顔との距離とを対応付けることができる。広角カメラ20の位置は固定されていることから、広角カメラ20と顔との距離を用いて距離Dを求めることができる。さらに、初期フレームや所定の時点でのフレームにおける距離Dをユーザの初期の立ち位置における距離とし、得られた前後方向の移動量を用いて距離Dを補正することができる。   As illustrated in FIGS. 15A to 15D, when the user leaves the wide-angle camera 20, the face position moves downward. Therefore, for example, the amount of change in the vertical direction (y-axis) of the attention point (center of gravity, center of both eyes, etc.) of the face outline can be associated with the distance between the wide-angle camera 20 and the face. Since the position of the wide-angle camera 20 is fixed, the distance D can be obtained using the distance between the wide-angle camera 20 and the face. Further, the distance D in the initial frame or the frame at a predetermined time can be used as the distance at the initial standing position of the user, and the distance D can be corrected using the obtained amount of movement in the front-rear direction.

なお、顔の輪郭の注目点の上下方向の座標は、上記距離の相対的な変異量として用いることができる一方で、上記距離の絶対量としても用いることができる。例えば、同一人物が何度も使用することを想定した場合、あるいはほぼ近い身長のユーザに対象を絞った場合などにおいては、上記注目点の位置を、上記距離の絶対量に換算することができる。なお、広角カメラ20が水平方向よりも斜め下方を向いている場合には、ユーザが広角カメラ20から離れると、顔の位置が上方に移動することになる。   In addition, while the vertical coordinate of the attention point of the face outline can be used as a relative variation amount of the distance, it can also be used as an absolute amount of the distance. For example, in the case where the same person is assumed to be used many times, or when the target is focused on a user who is almost close to the height, the position of the attention point can be converted into the absolute amount of the distance. . When the wide-angle camera 20 is directed obliquely downward from the horizontal direction, the face position moves upward when the user leaves the wide-angle camera 20.

図15(e)は、広角画像が640ピクセル×480ピクセルである場合における、顔輪郭の重心位置(x,y)と、y軸方向の差分(ピクセル)と、距離Dと、の対応関係を表すテーブルである。このテーブルを予め作成しておけば、顔輪郭の重心位置の変動を検出することによって、距離Dを取得することができる。図15(e)の数値間については、補間等によって取得すればよい。   FIG. 15E shows a correspondence relationship between the center of gravity position (x, y) of the face contour, the difference (pixel) in the y-axis direction, and the distance D when the wide-angle image is 640 pixels × 480 pixels. It is a table to represent. If this table is created in advance, the distance D can be acquired by detecting the change in the center of gravity of the face contour. What is necessary is just to acquire by the interpolation etc. between the numerical values of FIG.15 (e).

なお、重心位置がx軸方向に移動した場合にy軸方向に移動していなければ、広角カメラ20と顔との距離が同じで、ユーザが横方向に移動していることになる。重心位置がy軸方向に移動していても、ユーザがしゃがむ等の場合には距離に変化が無いことになる。そこで、顔輪郭領域の幅の変化量を補助的に検出してもよい。例えば、重心位置がy軸方向に移動していても、顔輪郭の幅の変化量が所定量以下であれば、広角カメラ20と顔との距離が変化していないと判定することもできる。なお、顔輪郭の画素幅だけから、距離を算出することも可能である。しかしながら、顔の大きさの個人差、外乱光等に起因する顔陰影、顔が斜めを向いた場合などの輪郭の境界部の変化、などの不安定な要素が存在することから、顔輪郭の注目点を用いることが好ましい。広角カメラ20の位置と狭角カメラ30の位置との関係が予め得られていれば、広角カメラ20と顔との距離を取得することによって、狭角カメラ30と顔との距離を算出することができる。   If the center of gravity moves in the x-axis direction and does not move in the y-axis direction, the distance between the wide-angle camera 20 and the face is the same, and the user moves in the horizontal direction. Even if the position of the center of gravity moves in the y-axis direction, the distance does not change when the user squats down. Therefore, the amount of change in the width of the face contour region may be detected as an auxiliary. For example, even if the position of the center of gravity moves in the y-axis direction, it can be determined that the distance between the wide-angle camera 20 and the face has not changed as long as the amount of change in the width of the face contour is a predetermined amount or less. It is also possible to calculate the distance only from the pixel width of the face outline. However, since there are unstable elements such as individual differences in face size, face shadows caused by ambient light, etc., and changes in the boundary of the outline when the face is directed diagonally, It is preferable to use a point of interest. If the relationship between the position of the wide-angle camera 20 and the position of the narrow-angle camera 30 is obtained in advance, the distance between the narrow-angle camera 30 and the face is calculated by acquiring the distance between the wide-angle camera 20 and the face. Can do.

距離Dを算出することができれば、ユーザの位置が前後左右方向に移動しても、視線先までの角度がどのように変化するかを特定することができる。したがって、算出された距離Dを用いて、視線を補正することができる。この場合、視線検出精度が向上する。   If the distance D can be calculated, it is possible to specify how the angle to the line of sight changes even if the position of the user moves in the front-rear and left-right directions. Therefore, the line of sight can be corrected using the calculated distance D. In this case, the line-of-sight detection accuracy is improved.

(他の例)
図16は、制御部50の他のハードウェア構成を説明するためのブロック図である。図16を参照して、制御部50は、CPU101、RAM102、記憶装置103、インタフェース104などを備える。これらの各機器は、バスなどによって接続されている。CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。CPU101が撮像プログラムを実行することによって、視線キャリブレーション装置100に制御部50が実現される。
(Other examples)
FIG. 16 is a block diagram for explaining another hardware configuration of the control unit 50. Referring to FIG. 16, the control unit 50 includes a CPU 101, a RAM 102, a storage device 103, an interface 104, and the like. Each of these devices is connected by a bus or the like. A CPU (Central Processing Unit) 101 is a central processing unit. The CPU 101 includes one or more cores. A RAM (Random Access Memory) 102 is a volatile memory that temporarily stores programs executed by the CPU 101, data processed by the CPU 101, and the like. The storage device 103 is a nonvolatile storage device. As the storage device 103, for example, a ROM (Read Only Memory), a solid state drive (SSD) such as a flash memory, a hard disk driven by a hard disk drive, or the like can be used. When the CPU 101 executes the imaging program, the control unit 50 is realized in the line-of-sight calibration apparatus 100.

上記各例では、広角カメラ20および狭角カメラ30の複数のカメラを用いたが、それに限られない。例えば、高画質カメラを用いることによって、広角カメラ20および狭角カメラ30の各機能を1台のカメラで担うことができる。また、上記各例では、広角カメラ20が取得する広角画像からユーザの目の高さを算出しているが、それに限られない。例えば、Kinect等のTOF(Time of flight)方式赤外測距センサを設けることにより、顔位置から目の高さを取得してもよい。また、身体や顔を検出する画像処理アルゴリズムを利用できない場合には、背景の壁の模様や観葉植物などの固定的な特徴物が隠されている程度に応じて、身長を推測してもよい。なお、上記各例において、視線換算部55が視線検出部の一例として機能し、高さ差算出部52が高さ検出部の一例として機能し、視線換算部55が視線をキャリブレーションする処理部の一例として機能する。   In each of the above examples, a plurality of cameras such as the wide-angle camera 20 and the narrow-angle camera 30 are used, but the present invention is not limited to this. For example, by using a high-quality camera, the functions of the wide-angle camera 20 and the narrow-angle camera 30 can be performed by a single camera. Moreover, in each said example, although the height of a user's eyes is calculated from the wide-angle image which the wide-angle camera 20 acquires, it is not restricted to it. For example, the eye height may be acquired from the face position by providing a time of flight (TOF) type infrared ranging sensor such as Kinect. If an image processing algorithm for detecting the body or face cannot be used, the height may be estimated according to the degree to which fixed features such as background wall patterns and houseplants are hidden. . In each of the above examples, the line-of-sight conversion unit 55 functions as an example of a line-of-sight detection unit, the height difference calculation unit 52 functions as an example of a height detection unit, and the line-of-sight conversion unit 55 calibrates the line of sight. Functions as an example.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

10 モニタ
20 広角カメラ
30 狭角カメラ
40 赤外LED
50 制御部
51 顔輪郭検出部
52 高さ差算出部
53 狭角カメラ制御部
54 目領域検出部
55 視線換算部
56 目視位置算出部
57 アプリ制御部
58 データベース
100 視線キャリブレーション装置
10 Monitor 20 Wide-angle camera 30 Narrow-angle camera 40 Infrared LED
DESCRIPTION OF SYMBOLS 50 Control part 51 Face contour detection part 52 Height difference calculation part 53 Narrow-angle camera control part 54 Eye area | region detection part 55 Gaze conversion part 56 Visual position calculation part 57 Application control part 58 Database 100 Gaze calibration apparatus

Claims (10)

コンピュータに、
ユーザの視線を検出する処理と、
前記ユーザの目の高さを検出する処理と、
目の高さに応じた視線のキャリブレーションモデルを用い、前記検出された目の高さに応じて、前記検出された視線をキャリブレーションする処理と、を実行させることを特徴とする視線キャリブレーションプログラム。
On the computer,
Processing to detect the user's line of sight;
Detecting the eye height of the user;
A line-of-sight calibration model using a line-of-sight calibration model corresponding to the eye height, and performing a process of calibrating the detected line of sight according to the detected eye height. program.
前記視線をキャリブレーションする処理において、基準の目の高さにおける視線のキャリブレーションモデルと、前記検出された目の高さと前記基準の目の高さとの差とを用いて、前記視線をキャリブレーションすることを特徴とする請求項1記載の視線キャリブレーションプログラム。   In the process of calibrating the line of sight, the line of sight is calibrated using a line-of-sight calibration model at a reference eye height and the difference between the detected eye height and the reference eye height. The line-of-sight calibration program according to claim 1. 前記視線をキャリブレーションする処理において、段階的に複数設けられた基準の目の高さにおけるキャリブレーションモデルから、前記検出された目の高さに応じていずれかを選択し、選択されたキャリブレーションモデルを用いて前記視線をキャリブレーションすることを特徴とする請求項1記載の視線キャリブレーションプログラム。   In the process of calibrating the line of sight, a calibration model at a reference eye height provided in a plurality of stages is selected according to the detected eye height, and the selected calibration is selected. The line-of-sight calibration program according to claim 1, wherein the line-of-sight is calibrated using a model. 前記ユーザの目の高さを検出する際に、カメラが取得した前記ユーザの画像を用いることを特徴とする請求項1〜3のいずれか一項に記載の視線キャリブレーションプログラム。   The line-of-sight calibration program according to any one of claims 1 to 3, wherein an image of the user acquired by a camera is used when detecting the eye height of the user. 前記ユーザの目の高さを検出する処理は、前記ユーザの画像から前記ユーザの顔輪郭を検出する処理と、前記顔輪郭に基づいて前記ユーザの目の高さを検出する処理と、を含むことを特徴とする請求項4記載の視線キャリブレーションプログラム。   The process of detecting the height of the user's eyes includes a process of detecting the face outline of the user from the user's image and a process of detecting the height of the user's eyes based on the face outline. The line-of-sight calibration program according to claim 4. 前記視線を検出する処理は、カメラが取得したユーザの画像において、眼球内の基準点からの注目点の相違量を検出する処理であることを特徴とする請求項1〜5のいずれか一項に記載の視線キャリブレーションプログラム。   6. The process for detecting a line of sight is a process for detecting a difference amount of a point of interest from a reference point in an eyeball in a user image acquired by a camera. The eye-gaze calibration program described in 1. 前記視線のキャリブレーションモデルは、事前に取得しておいた、所定のユーザの瞳孔の注目点と目視対象に対する視線角度変化量との相関であることを特徴とする請求項1〜6のいずれか一項に記載の視線キャリブレーションプログラム。   7. The line-of-sight calibration model is a correlation between an attention point of a predetermined user's pupil acquired in advance and a line-of-sight angle change amount with respect to a visual target. The line-of-sight calibration program according to one item. 前記コンピュータに、
カメラが取得した前記ユーザの画像における注目点の移動量に基づいて、目視対象と前記ユーザとの距離を取得する処理と、
前記取得された距離を前記視線のキャリブレーションに反映させる処理と、を実行させることを特徴とする請求項1〜7のいずれか一項に記載の視線キャリブレーションプログラム。
In the computer,
Based on the amount of movement of the point of interest in the image of the user acquired by the camera, a process of acquiring the distance between the visual target and the user;
The line-of-sight calibration program according to claim 1, wherein a process of reflecting the acquired distance on the line-of-sight calibration is executed.
ユーザの視線を検出する視線検出部と、
前記ユーザの目の高さを検出する高さ検出部と、
目の高さに応じた視線のキャリブレーションモデルを用い、前記検出されたユーザの目の高さに応じて、前記検出された視線をキャリブレーションする処理部と、を備えることを特徴とする視線キャリブレーション装置。
A line-of-sight detector that detects the line of sight of the user;
A height detector for detecting the height of the eyes of the user;
A line of sight characterized by comprising: a processing unit that calibrates the detected line of sight according to the detected eye height of the user using a line of sight calibration model corresponding to the height of the eye. Calibration device.
視線検出部がユーザの視線を検出し、
高さ検出部が前記ユーザの目の高さを検出し、
処理部が、目の高さに応じた視線のキャリブレーションモデルを用い、前記検出されたユーザの目の高さに応じて、前記検出された視線をキャリブレーションする、ことを特徴とする視線キャリブレーション方法。
The line-of-sight detection unit detects the user's line of sight,
A height detector detects the eye height of the user;
A processing unit calibrates the detected line of sight according to the detected eye height of the user using a line-of-sight calibration model corresponding to the eye height, Method.
JP2015110268A 2015-05-29 2015-05-29 Gaze calibration program, gaze calibration apparatus, and gaze calibration method Active JP6468078B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015110268A JP6468078B2 (en) 2015-05-29 2015-05-29 Gaze calibration program, gaze calibration apparatus, and gaze calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015110268A JP6468078B2 (en) 2015-05-29 2015-05-29 Gaze calibration program, gaze calibration apparatus, and gaze calibration method

Publications (2)

Publication Number Publication Date
JP2016224691A true JP2016224691A (en) 2016-12-28
JP6468078B2 JP6468078B2 (en) 2019-02-13

Family

ID=57748662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015110268A Active JP6468078B2 (en) 2015-05-29 2015-05-29 Gaze calibration program, gaze calibration apparatus, and gaze calibration method

Country Status (1)

Country Link
JP (1) JP6468078B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020240864A1 (en) * 2019-05-31 2020-12-03 日本電信電話株式会社 Distance estimation device, distance estimation method, and distance estimation program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05289816A (en) * 1992-04-06 1993-11-05 Fujitsu Ltd Display operation panel correcting device
JPH08322796A (en) * 1995-05-29 1996-12-10 Sharp Corp Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same
JPH11353118A (en) * 1998-06-08 1999-12-24 Ntt Data Corp Information input device
JP2007213469A (en) * 2006-02-13 2007-08-23 Saitama Univ Visual line control display device and display method
JP2012065719A (en) * 2010-09-21 2012-04-05 Fujitsu Ltd View line detection device, view line detection method, view line-detecting computer program and mobile terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05289816A (en) * 1992-04-06 1993-11-05 Fujitsu Ltd Display operation panel correcting device
JPH08322796A (en) * 1995-05-29 1996-12-10 Sharp Corp Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same
JPH11353118A (en) * 1998-06-08 1999-12-24 Ntt Data Corp Information input device
JP2007213469A (en) * 2006-02-13 2007-08-23 Saitama Univ Visual line control display device and display method
JP2012065719A (en) * 2010-09-21 2012-04-05 Fujitsu Ltd View line detection device, view line detection method, view line-detecting computer program and mobile terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020240864A1 (en) * 2019-05-31 2020-12-03 日本電信電話株式会社 Distance estimation device, distance estimation method, and distance estimation program
JPWO2020240864A1 (en) * 2019-05-31 2020-12-03
JP7120458B2 (en) 2019-05-31 2022-08-17 日本電信電話株式会社 Distance estimation device, distance estimation method, and distance estimation program

Also Published As

Publication number Publication date
JP6468078B2 (en) 2019-02-13

Similar Documents

Publication Publication Date Title
US9785233B2 (en) Systems and methods of eye tracking calibration
JP4649319B2 (en) Gaze detection device, gaze detection method, and gaze detection program
KR102212209B1 (en) Method, apparatus and computer readable recording medium for eye gaze tracking
JP5474202B2 (en) Method and apparatus for detecting a gazing point based on face detection and image measurement
TWI704501B (en) Electronic apparatus operated by head movement and operation method thereof
KR101769177B1 (en) Apparatus and method for eye tracking
US20140098198A1 (en) Apparatus and method for eye tracking
JP5584832B2 (en) Diameter measuring apparatus, measuring method, and measuring program for cylindrical object
EP3243162A1 (en) Gaze detection offset for gaze tracking models
WO2015190204A1 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
JP6840697B2 (en) Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program
JP2016173313A (en) Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program
JP7030317B2 (en) Pupil detection device and pupil detection method
JP2017188766A (en) Electronic apparatus with camera, correction method for picked-up video image, and storage medium
JP2017146938A (en) Book detection device, book detection method, and computer program for book detection
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
JP6452235B2 (en) Face detection method, face detection device, and face detection program
KR101330531B1 (en) Method of virtual touch using 3D camera and apparatus thereof
JP6881755B2 (en) Line-of-sight detection calibration methods, systems, and computer programs
JP6468078B2 (en) Gaze calibration program, gaze calibration apparatus, and gaze calibration method
JP2019098024A (en) Image processing device and method
JP4568024B2 (en) Eye movement measuring device and eye movement measuring program
JP2011172853A (en) Device, method and program for measuring visual axis
US11651502B2 (en) Systems and methods for updating continuous image alignment of separate cameras
US20200167005A1 (en) Recognition device and recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R150 Certificate of patent or registration of utility model

Ref document number: 6468078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150