JP2016224691A - Sight line calibration program, sight line calibration device, and sight line calibration method - Google Patents
Sight line calibration program, sight line calibration device, and sight line calibration method Download PDFInfo
- Publication number
- JP2016224691A JP2016224691A JP2015110268A JP2015110268A JP2016224691A JP 2016224691 A JP2016224691 A JP 2016224691A JP 2015110268 A JP2015110268 A JP 2015110268A JP 2015110268 A JP2015110268 A JP 2015110268A JP 2016224691 A JP2016224691 A JP 2016224691A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- user
- height
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本件は、視線キャリブレーションプログラム、視線キャリブレーション装置、および視線キャリブレーション方法に関する。 The present disclosure relates to a line-of-sight calibration program, a line-of-sight calibration apparatus, and a line-of-sight calibration method.
視線検出において、コンピュータが検出した視線と、実際の視線との間には、眼球形状の個人差などに起因して、個人ごとの誤差が現れる。そこで、キャリブレーションを行うことで視線を補正する技術が開示されている(例えば、特許文献1参照)。 In line-of-sight detection, an error for each individual appears between the line of sight detected by the computer and the actual line of sight due to individual differences in eyeball shape. Therefore, a technique for correcting the line of sight by performing calibration is disclosed (for example, see Patent Document 1).
しかしながら、個人ごとにキャリブレーションを行う技術は、不特定多数が利用する装置で用いることが困難である。一方、キャリブレーションを行わない場合には、視線検出精度が低下する。 However, it is difficult to use a technique for performing calibration for each individual in an apparatus used by an unspecified number. On the other hand, when calibration is not performed, the line-of-sight detection accuracy decreases.
1つの側面では、本発明は、視線検出精度を向上させることができる視線キャリブレーションプログラム、視線キャリブレーション装置、および視線キャリブレーション方法を提供することを目的とする。 In one aspect, an object of the present invention is to provide a gaze calibration program, a gaze calibration apparatus, and a gaze calibration method that can improve gaze detection accuracy.
1つの態様では、視線キャリブレーションプログラムは、コンピュータに、ユーザの視線を検出する処理と、前記ユーザの目の高さを検出する処理と、目の高さに応じた視線のキャリブレーションモデルを用い、前記検出された目の高さに応じて、前記検出された視線をキャリブレーションする処理と、を実行させる。 In one aspect, the line-of-sight calibration program uses, on a computer, a process for detecting a user's line of sight, a process for detecting the eye height of the user, and a line-of-sight calibration model corresponding to the eye height. And a process of calibrating the detected line of sight according to the detected eye height.
視線検出精度を向上させることができる。 The line-of-sight detection accuracy can be improved.
実施例の説明に先立って、撮像装置を備えた視線検出装置の概要について説明する。視線検出装置は、撮像装置を用いて、ユーザの視線方向を非接触で認識する装置である。例えば、図1(a)で例示するように、ユーザと正対する方向から照射された赤外LEDに対してユーザの眼球内(例えば瞳孔または虹彩)に生じる角膜反射像(プルキエニ像)を基準点とする。この基準点と、瞳孔重心などの注目点との相対位置(画素)変化を検出することによって、視線角度変化を算出することができる。例えば、図1(b)の例では、図1(a)を基準位置とした場合に視線が下方に向いていることが検出され、その角度を算出することができる。 Prior to the description of the embodiments, an outline of a line-of-sight detection device including an imaging device will be described. The line-of-sight detection device is a device that recognizes a user's line-of-sight direction in a non-contact manner using an imaging device. For example, as illustrated in FIG. 1A, a reference point is a corneal reflection image (Purquieni image) generated in the user's eyeball (for example, pupil or iris) with respect to the infrared LED irradiated from the direction facing the user. And By detecting a change in the relative position (pixel) between this reference point and a point of interest such as the center of gravity of the pupil, the change in the line-of-sight angle can be calculated. For example, in the example of FIG. 1B, it is detected that the line of sight is directed downward when FIG. 1A is used as the reference position, and the angle can be calculated.
図2は、視線検出装置200の概略図である。図2で例示するように、視線検出装置200は、例えば、広角カメラ201および狭角カメラ202を備える。広角カメラ201は、広角視野を有し、ユーザの顔全体を撮像する。なお、広角カメラ201の位置は固定されているため、当該広角視野も固定されている。狭角カメラ202は、ズーム機構による狭角視野を有し、顔パーツ(目領域)を撮像する。狭角カメラ202は、撮像方向可動式であって、目領域を追従する。なお、目領域とは、少なくとも片方の目を含む、顔の少なくとも一部の領域のことである。
FIG. 2 is a schematic diagram of the line-of-
視線検出装置200では、広角カメラ201で顔輪郭位置、顔輪郭重心位置(x,y)などを検出することによって、狭角カメラ202が目領域を検出することができる撮像方向を決定する。狭角カメラ202をこの撮像方向に動かすことによって、目領域を高画素で撮像できるようになる。それにより、高い視線検出分解能を得ることができる。すなわち、視線検出装置200では、広角カメラ201および狭角カメラ202の連動により、視線を検出することができる。視線を検出できれば、目視対象における目視位置を検出することができる。
In the line-of-
しかしながら、視線検出装置200が検出した視線と、実際の視線との間には、誤差が生じることがある。そこで、視線をキャリブレーションすることが考えられる。例えば、図3で例示するように、目視対象の上端y1と下端y2とをユーザが順に目視した場合について検討する。この場合のキャリブレーションは、例えば、瞳孔中の基準点に対する注目点の変化量(画素)と、視線角度変化量(度)との相関を求める作業のことである。この相関関係を、以下、キャリブレーションモデルと称する。視線検出の際に、キャリブレーションモデルに基づいて、ユーザまでの距離も勘案することで、目視する平面における目視位置(x,y)を算出することができる。しかしながら、不特定多数が利用する装置では、個人ごとにキャリブレーションを行う技術を利用することが困難である。一方で、キャリブレーションをしない場合には、誤差が大きくなる。
However, an error may occur between the visual line detected by the visual
図4(a)および図4(b)は、誤差について例示する図である。まず、図4(a)で例示するように、ユーザが目視する平面が垂直面である場合、目視対象の上端y1から下端y2までの目視対象物を目視した場合の視線角度の変化量は、身長差(目の高さ差)に起因して相違する。例えば、背の高いユーザの視線角度の変化量αと、背の低いユーザの視線角度の変化量βとの間には、相違が生じる。特に、図4(b)で例示するように、目視対象が水平面である場合、y1(奥端)からy2(手前端)までの同じ距離に対して、目の高さ差に起因する視線角度変化量は、垂直面に対する視線角度変化量よりも大きくなる。そこで、以下の実施例では、視線検出精度を向上させることができる視線キャリブレーション装置、視線キャリブレーション方法、および視線キャリブレーションプログラムについて説明する。 FIG. 4A and FIG. 4B are diagrams illustrating errors. First, as illustrated in FIG. 4A, when the plane viewed by the user is a vertical plane, the amount of change in the line-of-sight angle when viewing the visual object from the upper end y1 to the lower end y2 of the visual object is Different due to height difference (eye height difference). For example, there is a difference between the change amount α of the gaze angle of the tall user and the change amount β of the gaze angle of the short user. In particular, as illustrated in FIG. 4B, when the object to be viewed is a horizontal plane, the line-of-sight angle caused by the difference in eye height with respect to the same distance from y1 (back end) to y2 (front end) The amount of change is larger than the amount of line-of-sight angle change with respect to the vertical plane. In the following embodiments, a line-of-sight calibration apparatus, a line-of-sight calibration method, and a line-of-sight calibration program that can improve the line-of-sight detection accuracy will be described.
まず、実施例1に係る視線キャリブレーションの概略について説明する。図5は、目視対象が垂直面をなす場合の視線角度変化について説明するための図である。図5で例示するように、目視対象の高さをhとする。具体的には、高さhは、床から目視対象の下端までの距離である。目視対象の垂直方向の幅(視線変化幅)をHとする。ユーザから目視対象までの距離をDとする。具体的には、距離Dは、ユーザの目の目視対象側の先端から目視対象までの距離である。ユーザの目の高さをYとする。具体的には、高さYは、床からユーザの目の目視対象側の先端までの距離である。視線変化幅Hに対する、ユーザの視線角度変化量をθとする。視線角度変化量θのうち、水平よりも下側をθ1とし、上側をθ2とする。 First, an outline of the line-of-sight calibration according to the first embodiment will be described. FIG. 5 is a diagram for explaining a change in the line-of-sight angle when the visual target forms a vertical plane. As illustrated in FIG. 5, the height of the visual object is set to h. Specifically, the height h is the distance from the floor to the lower end of the visual target. Let H be the vertical width (line-of-sight change width) of the visual target. Let D be the distance from the user to the visual target. Specifically, the distance D is a distance from the tip of the user's eyes on the side of the visual object to the visual object. Let Y be the height of the user's eyes. Specifically, the height Y is the distance from the floor to the tip of the user's eyes on the visual target side. A user's line-of-sight angle change amount with respect to the line-of-sight change width H is θ. Of the line-of-sight angle change amount θ, the lower side than the horizontal is θ1, and the upper side is θ2.
視線角度変化量θ1のラジアン値は、下記式(1)で表すことができる。
θ1(rad)=arctan(Y−h)/D (1)
上記式(1)の角度値は、下記式(2)で表すことができる。
θ1(deg)=θ1(rad)×180/π (2)
視線角度変化量θ2のラジアン値は、下記式(3)で表すことができる。
θ2(rad)=arctan(h+H−Y)/D (3)
上記式(3)の角度値は、下記式(4)で表すことができる。
θ2(deg)=θ2(deg)×180/π (4)
視線角度変化量θは、下記式(5)で表すことができる。
θ=θ1+θ2 (5)
The radian value of the line-of-sight angle change amount θ1 can be expressed by the following formula (1).
θ1 (rad) = arctan (Y−h) / D (1)
The angle value of the above formula (1) can be expressed by the following formula (2).
θ1 (deg) = θ1 (rad) × 180 / π (2)
The radian value of the line-of-sight angle change amount θ2 can be expressed by the following formula (3).
θ2 (rad) = arctan (h + H−Y) / D (3)
The angle value of the above formula (3) can be expressed by the following formula (4).
θ2 (deg) = θ2 (deg) × 180 / π (4)
The line-of-sight angle change amount θ can be expressed by the following formula (5).
θ = θ1 + θ2 (5)
一例として、高さh=100cm、視線変化幅H=100cm、距離D=200cm、高さY=170cmであるとする。この場合、θ=θ1+θ2=19.29+8.531=27.82度となる。高さY=150cmであるとすると、θ=θ1+θ2=11.31+16.7=28.01度となる。このように、ユーザの身長差に応じて、視線角度変化量θに差異が生じる。 As an example, it is assumed that the height h = 100 cm, the line-of-sight change width H = 100 cm, the distance D = 200 cm, and the height Y = 170 cm. In this case, θ = θ1 + θ2 = 19.29 + 8.531 = 27.82. If the height Y = 150 cm, then θ = θ1 + θ2 = 11.31 + 16.7 = 28.01 degrees. Thus, a difference occurs in the line-of-sight angle change amount θ according to the height difference of the user.
図6は、目視対象が水平面をなす場合の視線角度変化について説明するための図である。図6で例示するように、目視対象の高さをhとする。具体的には、高さhは、床から目視対象までの距離である。ユーザから見た目視対象の奥行き方向の幅(視線変化幅)をHとする。ユーザから目視対象までの距離をDとする。具体的には、距離Dは、水平方向において、ユーザの目の目視対象側の先端から目視対象までの距離である。ユーザの目の高さをYとする。具体的には、高さYは、床からユーザの目の目視対象側の先端までの距離である。視線変化幅Hに対する、ユーザの視線角度変化量をθとする。鉛直下方から目視対象の奥端までの範囲におけるユーザの視線角度変化量をθ1とする。鉛直下方から目視対象の手前端までの範囲におけるユーザの視線角度変化量をθ2とする。 FIG. 6 is a diagram for explaining a change in the line-of-sight angle when the visual target is a horizontal plane. As illustrated in FIG. 6, the height of the object to be viewed is h. Specifically, the height h is the distance from the floor to the visual object. Let H be the width in the depth direction (line-of-sight change width) of the visual target viewed from the user. Let D be the distance from the user to the visual target. Specifically, the distance D is a distance from the tip of the user's eyes on the visual object side to the visual object in the horizontal direction. Let Y be the height of the user's eyes. Specifically, the height Y is the distance from the floor to the tip of the user's eyes on the visual target side. A user's line-of-sight angle change amount with respect to the line-of-sight change width H is θ. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the far end of the visual object is defined as θ1. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the front end of the visual object is defined as θ2.
視線角度変化量θ1のラジアン値は、下記式(6)で表すことができる。
θ1(rad)=arctan((H+D)/(Y−h)) (6)
上記式(6)の角度値は、下記式(7)で表すことができる。
θ1(deg)=θ1(rad)×180/π (7)
視線角度変化量θ2のラジアン値は、下記式(8)で表すことができる。
θ2(rad)=arctan(D/(Y−h)) (8)
上記式(8)の角度値は、下記式(9)で表すことができる。
θ2(deg)=θ2(deg)×180/π (9)
視線角度変化量θは、下記式(10)で表すことができる。
θ=θ1−θ2 (10)
The radian value of the line-of-sight angle change amount θ1 can be expressed by the following formula (6).
θ1 (rad) = arctan ((H + D) / (Y−h)) (6)
The angle value of the above formula (6) can be expressed by the following formula (7).
θ1 (deg) = θ1 (rad) × 180 / π (7)
The radian value of the line-of-sight angle change amount θ2 can be expressed by the following formula (8).
θ2 (rad) = arctan (D / (Y−h)) (8)
The angle value of the above formula (8) can be expressed by the following formula (9).
θ2 (deg) = θ2 (deg) × 180 / π (9)
The line-of-sight angle change amount θ can be expressed by the following formula (10).
θ = θ1-θ2 (10)
一例として、高さh=70cm、視線変化幅H=100cm、距離D=70cm、高さY=170cmであるとする。この場合、θ=θ1−θ2=59.53−34.99=24.54度となる。高さY=140cmであるとすると、θ=θ1−θ2=67.62−45=22.62度となる。このように、ユーザの身長差に応じて、視線角度変化量θに差異が生じる。 As an example, assume that height h = 70 cm, line-of-sight change width H = 100 cm, distance D = 70 cm, and height Y = 170 cm. In this case, θ = θ1−θ2 = 59.53−34.99 = 24.54 degrees. If the height Y is 140 cm, then θ = θ1−θ2 = 67.62−45 = 22.22 degrees. Thus, a difference occurs in the line-of-sight angle change amount θ according to the height difference of the user.
図7は、目視対象がユーザに対向しつつ水平方向および垂直方向に対して傾斜する場合の視線角度変化について説明するための図である。図7で例示するように、目視対象の高さをhとする。具体的には、高さhは、床から目視対象の下端までの距離である。目視対象の奥行き方向の幅(視線変化幅)をHとする。目視対象が水平面となす角度をθ3とする。水平面に対する目視対象の高低差をdとする。ユーザから目視対象までの距離をDとする。具体的には、距離Dは、水平方向において、ユーザの目の目視対象側の先端から目視対象の手前端までの距離である。ユーザの目の高さをYとする。具体的には、高さYは、床からユーザの目の目視対象側の先端までの距離である。視線変化幅Hに対する、ユーザの視線角度変化量をθとする。鉛直下方から目視対象の奥端までの範囲におけるユーザの視線角度変化量をθ1とする。鉛直下方から目視対象の手前端までの範囲におけるユーザの視線角度変化量をθ2とする。 FIG. 7 is a diagram for explaining a change in the line-of-sight angle when the visual target is inclined with respect to the horizontal direction and the vertical direction while facing the user. As illustrated in FIG. 7, the height of the visual target is h. Specifically, the height h is the distance from the floor to the lower end of the visual target. Let H be the width of the visual target in the depth direction (gaze change width). The angle formed by the visual target with the horizontal plane is defined as θ3. Let d be the difference in height of the visual object relative to the horizontal plane. Let D be the distance from the user to the visual target. Specifically, the distance D is a distance from the front end of the user's eyes to the front side of the visual target in the horizontal direction. Let Y be the height of the user's eyes. Specifically, the height Y is the distance from the floor to the tip of the user's eyes on the visual target side. A user's line-of-sight angle change amount with respect to the line-of-sight change width H is θ. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the far end of the visual object is defined as θ1. A change amount of the user's line-of-sight angle in the range from the vertically lower side to the front end of the visual object is defined as θ2.
視線角度変化量θ1のラジアン値は、下記式(11)で表すことができる。
θ1(rad)=arctan((H×cosθ3)+D)/(Y−h−d) (11)
上記式(11)の角度値は、下記式(12)で表すことができる。
θ1(deg)=θ1(rad)×180/π (12)
視線角度変化量θ2のラジアン値は、下記式(13)で表すことができる。
θ2(rad)=arctan(D/(Y−h)) (13)
上記式(13)の角度値は、下記式(14)で表すことができる。
θ2(deg)=θ2(deg)×180/π (14)
視線角度変化量θは、下記式(15)で表すことができる。
θ=θ1−θ2 (15)
図7の場合においても、ユーザの身長差に応じて、視線角度変化量θに差異が生じる。
The radian value of the line-of-sight angle change amount θ1 can be expressed by the following formula (11).
θ1 (rad) = arctan ((H × cos θ3) + D) / (Y−h−d) (11)
The angle value of the above formula (11) can be expressed by the following formula (12).
θ1 (deg) = θ1 (rad) × 180 / π (12)
The radian value of the line-of-sight angle change amount θ2 can be expressed by the following formula (13).
θ2 (rad) = arctan (D / (Y−h)) (13)
The angle value of the above formula (13) can be expressed by the following formula (14).
θ2 (deg) = θ2 (deg) × 180 / π (14)
The line-of-sight angle change amount θ can be expressed by the following formula (15).
θ = θ1-θ2 (15)
Also in the case of FIG. 7, a difference occurs in the line-of-sight angle change amount θ according to the height difference of the user.
本実施例においては、ユーザの立ち位置が定められており、図5〜図7で説明した距離Dは、既知の固定値であるものとする。この場合において、あらかじめ、基準の目の高さにおける視線の初期キャリブレーションモデルを作成しておく。具体的には、代表者(例えば目の高さ=170cm)について、瞳孔中の基準点に対する注目点の変化量(画素)と、目視対象に対する視線角度と、との相関関係を初期キャリブレーションモデルとして作成しておく。初期キャリブレーションモデルは、各変化量と各視線角度とを保持するマップやテーブルなどであってもよく、変化量から視線角度を算出するための数式などであってもよい。図5の例では、目視対象の上端から下端までの視線角度変化量(角度)を用いる。図6および図7の例では、目視対象の奥端から手前端までの視線角度変化量(角度)を用いる。 In this embodiment, the user's standing position is determined, and the distance D described with reference to FIGS. 5 to 7 is a known fixed value. In this case, an initial line-of-sight calibration model at the reference eye height is created in advance. Specifically, for a representative (for example, eye height = 170 cm), an initial calibration model is used to calculate a correlation between a change amount (pixel) of a target point with respect to a reference point in the pupil and a line-of-sight angle with respect to a visual target. Create as. The initial calibration model may be a map or table that holds each change amount and each line-of-sight angle, or may be a mathematical formula for calculating the line-of-sight angle from the amount of change. In the example of FIG. 5, the line-of-sight angle change amount (angle) from the upper end to the lower end of the visual target is used. In the example of FIG. 6 and FIG. 7, the line-of-sight angle change amount (angle) from the back end to the front end of the visual target is used.
本実施例においては、さらに、視線検出対象のユーザの目の高さと上記代表者の目の高さとの差と、上記初期キャリブレーションモデルとを用いて、視線をキャリブレーションする。例えば、目の高さ差を用いて初期キャリブレーションモデルをキャリブレーションし、得られたキャリブレーションモデルを用いて視線をキャリブレーションする。さらに、得られた視線を用いて、目視対象における目視位置(x,y)を算出する。本実施例によれば、代表者に対する目の高さ差を検出できれば、個人ごとにキャリブレーションモデルを作成しなくてもよい。また、個人ごとにキャリブレーションモデルを作成する場合と比較して、視線検出精度が向上する。以下、具体例について説明する。 In this embodiment, the line of sight is further calibrated using the difference between the height of the eye of the user who is the line of sight detection target and the eye of the representative and the initial calibration model. For example, the initial calibration model is calibrated using the eye height difference, and the line of sight is calibrated using the obtained calibration model. Furthermore, the visual position (x, y) in the visual target is calculated using the obtained line of sight. According to this embodiment, it is not necessary to create a calibration model for each individual as long as the eye height difference with respect to the representative can be detected. In addition, the line-of-sight detection accuracy is improved as compared with the case where a calibration model is created for each individual. Hereinafter, specific examples will be described.
図8は、実施例1に係る視線キャリブレーション装置100の構成を表すブロック図である。図8で例示するように、視線キャリブレーション装置100は、モニタ10、広角カメラ20、狭角カメラ30、赤外LED40、制御部50などを備える。制御部50は、顔輪郭検出部51、高さ差算出部52、狭角カメラ制御部53、目領域検出部54、視線換算部55、目視位置算出部56、アプリ制御部57、データベース58などを備える。
FIG. 8 is a block diagram illustrating the configuration of the line-of-
モニタ10は、LCDなどの表示装置であり、ユーザの目視対象である。広角カメラ20は、広角視野を有し、モニタ10の前に立ち寄るユーザの顔全体を撮像する。なお、広角カメラ20の位置は固定されているため、当該広角視野も固定されている。広角カメラ20は、一例として、マイクロビジョン製のUSBカメラ(MCM:4302)を用いることができる。なお、画素は、一例としてVGA(640×480pix)である。レンズ画角は、一例として、V/H/D=23/30/37.5度である。
The
狭角カメラ30は、ズーム機構による狭角視野を有し、広角カメラ20の視野内にフレームインしたユーザの顔のパーツ(目領域)の画像を取得する。狭角カメラ30は、撮像方向可動式であって、撮像方向を変更することによって目領域に追従することができる。狭角カメラ30は、例えば、PTZ(Pan Tilt Zoom:パンチルトズーム)カメラであり、一例として、SONY(登録商標)製のSNC−Ep580を用いることができる。なお、画角は、可変である。F値は、1.6(wide)〜3.5(tele)である。赤外LED40は、赤外光をユーザに対して照射する。
The narrow-
以下、図9のフローチャートを参照しつつ、視線キャリブレーション装置100の動作について説明する。図9のフローチャートは、視線キャリブレーション装置100の動作の一例を表す。顔輪郭検出部51は、広角カメラ20から広角画像をキャプチャする(ステップS1)。次に、顔輪郭検出部51は、顔輪郭領域を検出する(ステップS2)。また、顔輪郭検出部51は、顔輪郭領域のいずれかの幅(縦または横)を算出し、顔輪郭領域の重心、両目の中心などの注目点を算出する。
Hereinafter, the operation of the line-of-
次に、高さ差算出部52は、算出された注目点を用いて、代表モデルの目の高さとユーザの目の高さとの差を算出する(ステップS3)。具体的には、距離Dが固定値であり、広角カメラ20の位置も固定されていることから、広角画像における注目点の位置から、ユーザの目の高さを算出することができる。高さ差算出部52は、この目の高さと、代表モデルの目の高さとの差を求めることで、目の高さ差を算出する。
Next, the height
次に、狭角カメラ制御部53は、狭角視野内にユーザの顔が所定の大きさで入るように、狭角カメラ30の角度、倍率などを制御する(ステップS4)。それにより、狭角カメラ30は、ユーザの目の領域を撮像することができる。次に、目領域検出部54は、狭角カメラ30から狭角画像をキャプチャする(ステップS5)。次に、目領域検出部54は、狭角画像において、目領域を検出する(ステップS6)。具体的には、目領域検出部54は、両目を含む輪郭枠を目領域として検出する。または、目領域検出部54は、顔輪郭検出部51から受け取った座標から、両目を含む輪郭枠を目領域として推定する。
Next, the narrow-angle
次に、視線換算部55は、目領域検出部54が検出した目領域において、目の内部を検出する(ステップS7)。次に、視線換算部55は、瞳孔重心と角膜反射重心との相対変化を算出する(ステップS8)。次に、視線換算部55は、データベース58に格納されている初期キャリブレーションモデルを参照し、算出された相対変化から視線角度を得る(ステップS9)。
Next, the line-of-
次に、視線換算部55は、得られた視線角度に対して、ステップS3で算出された目の高さ差を用いてキャリブレーションを行う(ステップS10)。図10(a)は、データベース58に格納されている補正係数のテーブルを例示する図であり、図6の目視対象が水平面をなす場合の視線角度変化に対応している。図10(a)で例示するように、代表者の目の高さの場合の補正係数を1とし、目の高さに応じて段階的に補正係数が設定されている。例えば、視線換算部55は、ステップS9で得られた視線角度に対して補正係数を掛け合わせる。図10(b)は、本実施例に係る視線キャリブレーションのイメージ図である。図10(b)で例示するように、本実施例においては、初期キャリブレーションモデルと、目の高さ差と、補正係数のテーブルとを用いて、視線をキャリブレーションする。
Next, the line-of-
次に、目視位置算出部56は、ステップS10で得られた視線角度と、距離Dと、ステップS3で算出した目の高さから、モニタ10における目視位置(x,y)を算出する(ステップS11)。アプリ制御部57は、目視位置算出部56が算出した目視位置に基づいて、モニタ10を制御する(ステップS12)。例えば、アプリ制御部57は、モニタ10の表示内容を変更する。具体的には、アプリ制御部57は、モニタ10において、詳細情報の展開、表示切換、スクロールなどを行う。
Next, the visual
本実施例によれば、代表者について予め作成しておいた初期キャリブレーションモデルを用いることによって、個人ごとのキャリブレーションモデルを作成する手間が省ける。さらに、目の高さ差と初期キャリブレーションモデルとを用いて視線をキャリブレーションすることによって、視線検出精度を向上させることができる。その結果、目視対象における目視位置の検出精度を向上させることができる。 According to the present embodiment, by using the initial calibration model created in advance for the representative, the labor of creating a calibration model for each individual can be saved. Furthermore, the line-of-sight detection accuracy can be improved by calibrating the line of sight using the eye height difference and the initial calibration model. As a result, the detection accuracy of the visual position in the visual object can be improved.
(変形例1)
上記例では、図10(a)で例示するようなテーブルを用いたが、補正係数を算出するための数式を用いてもよい。例えば、代表者の目の高さの場合の補正係数が1となり、目の高さ差に応じて補正係数が変化するような数式を用いることができる。例えば、視線換算部55は、ステップS9で得られた視線角度に対して、ステップS3で得られた目の高さ差と上記数式とから得られる補正係数を掛け合わせる。図11は、変形例1に係る視線キャリブレーションのイメージ図である。図11で例示するように、本変形例においては、初期キャリブレーションモデルと、目の高さ差と、補正係数を算出するための数式とを用いて、視線をキャリブレーションする。変形例1によれば、テーブルなどの容量を削減することができる。
(Modification 1)
In the above example, the table illustrated in FIG. 10A is used, but a mathematical formula for calculating a correction coefficient may be used. For example, it is possible to use a mathematical formula in which the correction coefficient in the case of the eye height of the representative is 1, and the correction coefficient changes according to the eye height difference. For example, the line-of-
(変形例2)
なお、上記例では、基準の目の高さとして1種類だけ用意したが、段階的に複数設けられた基準の目の高さにおけるキャリブレーションモデルを作成しておいてもよい。図12は、この場合に実行されるフローチャートを例示する。図9のフローチャートと異なる点は、ステップS3、ステップS9およびステップS10の代わりに、ステップS13、ステップS19およびステップS20が実行される点である。以下、ステップS13、ステップS19およびステップS20について説明する。
(Modification 2)
In the above example, only one type of reference eye height is prepared. However, a plurality of reference eye heights may be prepared in stages. FIG. 12 illustrates a flowchart executed in this case. The difference from the flowchart of FIG. 9 is that step S13, step S19 and step S20 are executed instead of step S3, step S9 and step S10. Hereinafter, step S13, step S19, and step S20 will be described.
ステップS2の実行後、高さ差算出部52は、算出された注目点を用いて、ユーザの目の高さを算出する(ステップS13)。具体的には、距離Dが固定値であり、広角カメラ20の位置も固定されていることから、広角画像における注目点の位置から、ユーザの目の高さを算出する。
After execution of step S2, the height
ステップS8の実行後、視線換算部55は、データベース58に格納されている複数のキャリブレーションモデルから、ステップS13で得られた目の高さに対応するモデルを選択する(ステップS19)。例えば、視線換算部55は、ステップS13で得られた目の高さに最も近い基準の目の高さのキャリブレーションモデルを選択する。次に、視線換算部55は、選択したキャリブレーションモデルを用いて、ステップS8で算出された相対変化から視線角度を得る(ステップS20)。変形例2によれば、複数のキャリブレーションモデルを用いることができることから、視線検出精度が向上する。
After execution of step S8, the line-of-
実施例1では、距離Dが固定であることが前提であったが、広角カメラ20が取得する広角画像を用いて距離Dを算出してもよい。広角画像を用いて距離Dを算出する場合には、ユーザの狭角カメラ30に対する前後方向の移動が広角画像に現れることが好ましい。そこで、広角カメラ20が設置される高さは、ユーザの平均的な顔位置に対してずれていることが好ましい。例えば、広角カメラ20の光軸は、ユーザの平均的な顔位置よりも高い位置から水平方向よりも斜め下方に向いている、または、ユーザの平均的な顔位置よりも低い位置から水平方向よりも斜め上方(あおり角)に向いていることが好ましい。なお、ユーザの体軸が垂直からずれている場合には、当該体軸に対して斜め上方または斜め下方に向いていることが好ましい。目領域を検出するためには、広角カメラ20は、ユーザの平均的な顔位置よりも低い位置からユーザに対して斜め上方(あおり角)に向いていることが好ましい。
In the first embodiment, it is assumed that the distance D is fixed, but the distance D may be calculated using a wide-angle image acquired by the wide-
図13は、広角カメラ20の光軸が、ユーザの平均的な顔位置よりも低い位置から水平方向よりも斜め上方に向いている例である。なお、広角カメラ20の光軸が水平方向よりも斜め上方を向いている場合と斜め下方を向いている場合とで、ユーザの広角カメラ20に対する前後方向の移動は、広角画像において逆になる。
FIG. 13 is an example in which the optical axis of the wide-
図14は、実施例2に係る視線キャリブレーション装置100aの構成を表すブロック図である。図14で例示するように、視線キャリブレーション装置100aが視線キャリブレーション装置100と異なる点は、制御部50に、さらに距離算出部59が備わっている点である。
FIG. 14 is a block diagram illustrating the configuration of the line-of-
距離算出部59は、顔輪郭検出部51が検出する注目点を以前のフレームと(例えばフレームごとに)比較することによって、広角画像における注目点の移動方向および移動量を算出する。例えば、距離算出部59は、広角画像における注目点の座標(x,y)の変化をフレームごとに検出することによって、広角画像における注目点の移動方向および移動量を算出する。
The
さらに、距離算出部59は、顔輪郭検出部51が検出する輪郭幅および注目点をフレームごとに比較することによって、ユーザの前後方向の移動方向および移動量を算出する。前後方向とは、ユーザが広角カメラ20に近づく方向および広角カメラ20から離れる方向である。図15(a)〜図15(d)は、体軸が鉛直方向を向いていると仮定し、広角カメラ20の光軸をユーザの平均的な顔位置よりも低い位置から水平方向よりも斜め上方(10°)に設定した場合の広角画像(静止画像)である。図15(a)〜図15(d)は、広角カメラ20と顔との距離が1.5m、2m、2.5m、3mである場合の静止画像である。
Further, the
図15(a)〜図15(d)で例示するように、ユーザが広角カメラ20から離れると、顔の位置が下方に移動している。そこで、例えば、顔の輪郭の注目点(重心、両目の中心など)の上下方向(y軸)の変化量と、広角カメラ20と顔との距離とを対応付けることができる。広角カメラ20の位置は固定されていることから、広角カメラ20と顔との距離を用いて距離Dを求めることができる。さらに、初期フレームや所定の時点でのフレームにおける距離Dをユーザの初期の立ち位置における距離とし、得られた前後方向の移動量を用いて距離Dを補正することができる。
As illustrated in FIGS. 15A to 15D, when the user leaves the wide-
なお、顔の輪郭の注目点の上下方向の座標は、上記距離の相対的な変異量として用いることができる一方で、上記距離の絶対量としても用いることができる。例えば、同一人物が何度も使用することを想定した場合、あるいはほぼ近い身長のユーザに対象を絞った場合などにおいては、上記注目点の位置を、上記距離の絶対量に換算することができる。なお、広角カメラ20が水平方向よりも斜め下方を向いている場合には、ユーザが広角カメラ20から離れると、顔の位置が上方に移動することになる。
In addition, while the vertical coordinate of the attention point of the face outline can be used as a relative variation amount of the distance, it can also be used as an absolute amount of the distance. For example, in the case where the same person is assumed to be used many times, or when the target is focused on a user who is almost close to the height, the position of the attention point can be converted into the absolute amount of the distance. . When the wide-
図15(e)は、広角画像が640ピクセル×480ピクセルである場合における、顔輪郭の重心位置(x,y)と、y軸方向の差分(ピクセル)と、距離Dと、の対応関係を表すテーブルである。このテーブルを予め作成しておけば、顔輪郭の重心位置の変動を検出することによって、距離Dを取得することができる。図15(e)の数値間については、補間等によって取得すればよい。 FIG. 15E shows a correspondence relationship between the center of gravity position (x, y) of the face contour, the difference (pixel) in the y-axis direction, and the distance D when the wide-angle image is 640 pixels × 480 pixels. It is a table to represent. If this table is created in advance, the distance D can be acquired by detecting the change in the center of gravity of the face contour. What is necessary is just to acquire by the interpolation etc. between the numerical values of FIG.15 (e).
なお、重心位置がx軸方向に移動した場合にy軸方向に移動していなければ、広角カメラ20と顔との距離が同じで、ユーザが横方向に移動していることになる。重心位置がy軸方向に移動していても、ユーザがしゃがむ等の場合には距離に変化が無いことになる。そこで、顔輪郭領域の幅の変化量を補助的に検出してもよい。例えば、重心位置がy軸方向に移動していても、顔輪郭の幅の変化量が所定量以下であれば、広角カメラ20と顔との距離が変化していないと判定することもできる。なお、顔輪郭の画素幅だけから、距離を算出することも可能である。しかしながら、顔の大きさの個人差、外乱光等に起因する顔陰影、顔が斜めを向いた場合などの輪郭の境界部の変化、などの不安定な要素が存在することから、顔輪郭の注目点を用いることが好ましい。広角カメラ20の位置と狭角カメラ30の位置との関係が予め得られていれば、広角カメラ20と顔との距離を取得することによって、狭角カメラ30と顔との距離を算出することができる。
If the center of gravity moves in the x-axis direction and does not move in the y-axis direction, the distance between the wide-
距離Dを算出することができれば、ユーザの位置が前後左右方向に移動しても、視線先までの角度がどのように変化するかを特定することができる。したがって、算出された距離Dを用いて、視線を補正することができる。この場合、視線検出精度が向上する。 If the distance D can be calculated, it is possible to specify how the angle to the line of sight changes even if the position of the user moves in the front-rear and left-right directions. Therefore, the line of sight can be corrected using the calculated distance D. In this case, the line-of-sight detection accuracy is improved.
(他の例)
図16は、制御部50の他のハードウェア構成を説明するためのブロック図である。図16を参照して、制御部50は、CPU101、RAM102、記憶装置103、インタフェース104などを備える。これらの各機器は、バスなどによって接続されている。CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。CPU101が撮像プログラムを実行することによって、視線キャリブレーション装置100に制御部50が実現される。
(Other examples)
FIG. 16 is a block diagram for explaining another hardware configuration of the
上記各例では、広角カメラ20および狭角カメラ30の複数のカメラを用いたが、それに限られない。例えば、高画質カメラを用いることによって、広角カメラ20および狭角カメラ30の各機能を1台のカメラで担うことができる。また、上記各例では、広角カメラ20が取得する広角画像からユーザの目の高さを算出しているが、それに限られない。例えば、Kinect等のTOF(Time of flight)方式赤外測距センサを設けることにより、顔位置から目の高さを取得してもよい。また、身体や顔を検出する画像処理アルゴリズムを利用できない場合には、背景の壁の模様や観葉植物などの固定的な特徴物が隠されている程度に応じて、身長を推測してもよい。なお、上記各例において、視線換算部55が視線検出部の一例として機能し、高さ差算出部52が高さ検出部の一例として機能し、視線換算部55が視線をキャリブレーションする処理部の一例として機能する。
In each of the above examples, a plurality of cameras such as the wide-
以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.
10 モニタ
20 広角カメラ
30 狭角カメラ
40 赤外LED
50 制御部
51 顔輪郭検出部
52 高さ差算出部
53 狭角カメラ制御部
54 目領域検出部
55 視線換算部
56 目視位置算出部
57 アプリ制御部
58 データベース
100 視線キャリブレーション装置
10
DESCRIPTION OF
Claims (10)
ユーザの視線を検出する処理と、
前記ユーザの目の高さを検出する処理と、
目の高さに応じた視線のキャリブレーションモデルを用い、前記検出された目の高さに応じて、前記検出された視線をキャリブレーションする処理と、を実行させることを特徴とする視線キャリブレーションプログラム。 On the computer,
Processing to detect the user's line of sight;
Detecting the eye height of the user;
A line-of-sight calibration model using a line-of-sight calibration model corresponding to the eye height, and performing a process of calibrating the detected line of sight according to the detected eye height. program.
カメラが取得した前記ユーザの画像における注目点の移動量に基づいて、目視対象と前記ユーザとの距離を取得する処理と、
前記取得された距離を前記視線のキャリブレーションに反映させる処理と、を実行させることを特徴とする請求項1〜7のいずれか一項に記載の視線キャリブレーションプログラム。 In the computer,
Based on the amount of movement of the point of interest in the image of the user acquired by the camera, a process of acquiring the distance between the visual target and the user;
The line-of-sight calibration program according to claim 1, wherein a process of reflecting the acquired distance on the line-of-sight calibration is executed.
前記ユーザの目の高さを検出する高さ検出部と、
目の高さに応じた視線のキャリブレーションモデルを用い、前記検出されたユーザの目の高さに応じて、前記検出された視線をキャリブレーションする処理部と、を備えることを特徴とする視線キャリブレーション装置。 A line-of-sight detector that detects the line of sight of the user;
A height detector for detecting the height of the eyes of the user;
A line of sight characterized by comprising: a processing unit that calibrates the detected line of sight according to the detected eye height of the user using a line of sight calibration model corresponding to the height of the eye. Calibration device.
高さ検出部が前記ユーザの目の高さを検出し、
処理部が、目の高さに応じた視線のキャリブレーションモデルを用い、前記検出されたユーザの目の高さに応じて、前記検出された視線をキャリブレーションする、ことを特徴とする視線キャリブレーション方法。 The line-of-sight detection unit detects the user's line of sight,
A height detector detects the eye height of the user;
A processing unit calibrates the detected line of sight according to the detected eye height of the user using a line-of-sight calibration model corresponding to the eye height, Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015110268A JP6468078B2 (en) | 2015-05-29 | 2015-05-29 | Gaze calibration program, gaze calibration apparatus, and gaze calibration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015110268A JP6468078B2 (en) | 2015-05-29 | 2015-05-29 | Gaze calibration program, gaze calibration apparatus, and gaze calibration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016224691A true JP2016224691A (en) | 2016-12-28 |
JP6468078B2 JP6468078B2 (en) | 2019-02-13 |
Family
ID=57748662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015110268A Active JP6468078B2 (en) | 2015-05-29 | 2015-05-29 | Gaze calibration program, gaze calibration apparatus, and gaze calibration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6468078B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020240864A1 (en) * | 2019-05-31 | 2020-12-03 | 日本電信電話株式会社 | Distance estimation device, distance estimation method, and distance estimation program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05289816A (en) * | 1992-04-06 | 1993-11-05 | Fujitsu Ltd | Display operation panel correcting device |
JPH08322796A (en) * | 1995-05-29 | 1996-12-10 | Sharp Corp | Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same |
JPH11353118A (en) * | 1998-06-08 | 1999-12-24 | Ntt Data Corp | Information input device |
JP2007213469A (en) * | 2006-02-13 | 2007-08-23 | Saitama Univ | Visual line control display device and display method |
JP2012065719A (en) * | 2010-09-21 | 2012-04-05 | Fujitsu Ltd | View line detection device, view line detection method, view line-detecting computer program and mobile terminal |
-
2015
- 2015-05-29 JP JP2015110268A patent/JP6468078B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05289816A (en) * | 1992-04-06 | 1993-11-05 | Fujitsu Ltd | Display operation panel correcting device |
JPH08322796A (en) * | 1995-05-29 | 1996-12-10 | Sharp Corp | Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same |
JPH11353118A (en) * | 1998-06-08 | 1999-12-24 | Ntt Data Corp | Information input device |
JP2007213469A (en) * | 2006-02-13 | 2007-08-23 | Saitama Univ | Visual line control display device and display method |
JP2012065719A (en) * | 2010-09-21 | 2012-04-05 | Fujitsu Ltd | View line detection device, view line detection method, view line-detecting computer program and mobile terminal |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020240864A1 (en) * | 2019-05-31 | 2020-12-03 | 日本電信電話株式会社 | Distance estimation device, distance estimation method, and distance estimation program |
JPWO2020240864A1 (en) * | 2019-05-31 | 2020-12-03 | ||
JP7120458B2 (en) | 2019-05-31 | 2022-08-17 | 日本電信電話株式会社 | Distance estimation device, distance estimation method, and distance estimation program |
Also Published As
Publication number | Publication date |
---|---|
JP6468078B2 (en) | 2019-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9785233B2 (en) | Systems and methods of eye tracking calibration | |
JP4649319B2 (en) | Gaze detection device, gaze detection method, and gaze detection program | |
KR102212209B1 (en) | Method, apparatus and computer readable recording medium for eye gaze tracking | |
JP5474202B2 (en) | Method and apparatus for detecting a gazing point based on face detection and image measurement | |
TWI704501B (en) | Electronic apparatus operated by head movement and operation method thereof | |
KR101769177B1 (en) | Apparatus and method for eye tracking | |
US20140098198A1 (en) | Apparatus and method for eye tracking | |
JP5584832B2 (en) | Diameter measuring apparatus, measuring method, and measuring program for cylindrical object | |
EP3243162A1 (en) | Gaze detection offset for gaze tracking models | |
WO2015190204A1 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
JP6840697B2 (en) | Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program | |
JP2016173313A (en) | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program | |
JP7030317B2 (en) | Pupil detection device and pupil detection method | |
JP2017188766A (en) | Electronic apparatus with camera, correction method for picked-up video image, and storage medium | |
JP2017146938A (en) | Book detection device, book detection method, and computer program for book detection | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
JP6452235B2 (en) | Face detection method, face detection device, and face detection program | |
KR101330531B1 (en) | Method of virtual touch using 3D camera and apparatus thereof | |
JP6881755B2 (en) | Line-of-sight detection calibration methods, systems, and computer programs | |
JP6468078B2 (en) | Gaze calibration program, gaze calibration apparatus, and gaze calibration method | |
JP2019098024A (en) | Image processing device and method | |
JP4568024B2 (en) | Eye movement measuring device and eye movement measuring program | |
JP2011172853A (en) | Device, method and program for measuring visual axis | |
US11651502B2 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
US20200167005A1 (en) | Recognition device and recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181231 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6468078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |